2019年12月25日 05時00分 公開
特集/連載

企業による「AI」のガバナンスはどこまで有効か「AI」の信頼性と透明性の確保に向けて【後編】

AI技術の透明性は重要な課題だ。対策は企業の自主規制に任せるべきだという意見もあるが、政府が介入すべきだという声も根強くある。

[Kathleen Walch,TechTarget]

関連キーワード

ITガバナンス | 機械学習


 人工知能(AI)技術の悪用防止対策は企業の自主規制に任せるべきだという意見がある。一方、政府機関が介入すべきだという意見もある。2019年初頭にGoogleがAI倫理委員会を発足させたが、その発足を巡る議論を受け、わずか1週間で委員会を解散する結果となったのは有名な話だ。このため、企業がAI技術の利用を自主規制できると考えている人は多くない。

 規制が厳しい業界ではAI技術の透明性がさらに差し迫った課題になる。銀行業や保険業など、ローン管理や信用リスク判断のシステムにAI技術を利用する業界では、こうしたAIシステムが信頼される必要がある。

 金融機関は、ある人物にローンや類似商品の提供を受ける資格があるかどうかを簡単かつ迅速に評価している。AIシステムがそうした人物への商品提供を拒否する判断を下した場合、金融機関はAIシステムがその決断を下すまでにたどった手順を参照できるようにする必要があるだろう。新たな技術課題を議論するATARC(Advanced Technology Academic Research Center)などの新しい技術グループや標準化団体の間では、説明可能性のレベルの標準化に関する議論が交わされている。特定のアルゴリズムの説明可能性について、細かい洞察をユーザーや規制当局に提供するためだ。

 製薬業は金融機関と同様、規制が厳しい。この業界でも、創薬や医薬品製造、臨床試験などの支援を含め、AI技術よる大きな進歩が起きている。診察はもちろんソーシャルメディアなどさまざまなソースから得た幅広いデータや情報をAIシステムが利用することで、臨床試験に適した候補者を見つけることが可能になる。これにより適切に対象を絞ることができ、試験全体の時間短縮やコスト削減につながる。

 規制の厳しい業界全般にいえることだが、製薬会社は監査証跡を残し、個人を試験に選んだ方法について説明可能な手順と意思決定を文書化する必要がある。このため説明可能性という考え方に取り組むことは非常に重要だ。

AI規制の課題

ITmedia マーケティング新着記事

news030.jpg

経営にSDGsを取り入れるために必要な考え方とは? 眞鍋和博氏(北九州市立大学教授)と語る【前編】
企業がSDGsを推進するために何が必要なのか。北九州市立大学の眞鍋和博教授と語り合った。

news022.jpg

「サイト内検索」ツール(有償版) 国内売れ筋TOP10(2021年7月)
サイト内検索(サイトサーチ)ツールは検索窓から自社サイト内のコンテンツを正確に、効...

news139.jpg

SNSの利用時間は77.8分、Instagram利用率は50%超え――Glossom調査
スマートフォンでの情報収集に関する定点調査。スマートフォンの利用時間は順調に増加し...