企業による「AI」のガバナンスはどこまで有効か:「AI」の信頼性と透明性の確保に向けて【後編】
AI技術の透明性は重要な課題だ。対策は企業の自主規制に任せるべきだという意見もあるが、政府が介入すべきだという声も根強くある。
人工知能(AI)技術の悪用防止対策は企業の自主規制に任せるべきだという意見がある。一方、政府機関が介入すべきだという意見もある。2019年初頭にGoogleがAI倫理委員会を発足させたが、その発足を巡る議論を受け、わずか1週間で委員会を解散する結果となったのは有名な話だ。このため、企業がAI技術の利用を自主規制できると考えている人は多くない。
規制が厳しい業界ではAI技術の透明性がさらに差し迫った課題になる。銀行業や保険業など、ローン管理や信用リスク判断のシステムにAI技術を利用する業界では、こうしたAIシステムが信頼される必要がある。
金融機関は、ある人物にローンや類似商品の提供を受ける資格があるかどうかを簡単かつ迅速に評価している。AIシステムがそうした人物への商品提供を拒否する判断を下した場合、金融機関はAIシステムがその決断を下すまでにたどった手順を参照できるようにする必要があるだろう。新たな技術課題を議論するATARC(Advanced Technology Academic Research Center)などの新しい技術グループや標準化団体の間では、説明可能性のレベルの標準化に関する議論が交わされている。特定のアルゴリズムの説明可能性について、細かい洞察をユーザーや規制当局に提供するためだ。
併せて読みたいお薦め記事
「AI」の意思決定は信じられるか
「AI」の信頼性を巡る議論
製薬業は金融機関と同様、規制が厳しい。この業界でも、創薬や医薬品製造、臨床試験などの支援を含め、AI技術よる大きな進歩が起きている。診察はもちろんソーシャルメディアなどさまざまなソースから得た幅広いデータや情報をAIシステムが利用することで、臨床試験に適した候補者を見つけることが可能になる。これにより適切に対象を絞ることができ、試験全体の時間短縮やコスト削減につながる。
規制の厳しい業界全般にいえることだが、製薬会社は監査証跡を残し、個人を試験に選んだ方法について説明可能な手順と意思決定を文書化する必要がある。このため説明可能性という考え方に取り組むことは非常に重要だ。
AI規制の課題
Copyright © ITmedia, Inc. All Rights Reserved.