検索
特集/連載

欧州委員会が人工知能(AI)のガイドラインと試験運用開始を発表説明責任が明文化

ECは「信頼できるAI」の実現を目指し、7つの指針を盛り込んだガイドラインを発表した。現時点で強制力を持つものではないが、このガイドラインを出発点とした法整備がEUで進む可能性もある。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 欧州委員会(EC)は、人工知能(AI)の倫理的な応用方法に関する一連のガイドラインを公開し、そのガイドラインに従って広範な試験運用を開始すると発表した。

 ECは2019年4月、高度な専門家グループの成果として報告書「Ethics guidelines for trustworthy AI」(信頼できるAIについての倫理ガイドライン)を公開した。このガイドラインは2018年4月にEUが発表したAI戦略の一部になる。同年12月には一連の勧告の草案も公開された。

 ECの談話によると、このガイドラインを2019年夏に始動する試験運用での検証に供し、多くの出資者を募る予定だという。

 European AI Alliance(欧州AI連合)は官民を問わず参画可能で、試験運用始動時に通知を受け取ることができる。

 試験運用は2020年初旬に終了する。その後、ECはガイドラインを見直し、受け取った実用的なフィードバックを基に成果を評価した上で次の段階に移る予定だ。

 報告書には、7つの指針が記載されている。

 1つ目の指針は、人間の行為主体性と監督に関係する。AIシステムは公平な社会を実現する必要がある。そのため、人間の行為主体性と基本的権利を支持する必要があり、人間の自主性を損なったり、制限したり、誤誘導したりしてはならない。

 2つ目の指針は、堅牢(けんろう)性と安全性に関係する。この点に関してECは、信頼できるAIにはAIのライフサイクル全体を通してエラーや不整合に対処できるレベルの安全性、信頼性、堅牢性を備えたアルゴリズムが必須だとしている。

 3つ目の指針は、プライバシーとデータガバナンスだ。市民は自身の固有データを完全にコントロールして、自身に関わるデータが自身を傷つけたり、差別に利用されたりすることがないようしなければならない。

 4つ目の指針は透明性だ。組織はAIシステムのトレーサビリティーを確保する必要がある。

 5つ目の指針は、AIシステムの多様性、非差別性、公平性に関係する。AIシステムは人間の能力、スキル、要件の全てに配慮すると同時に、アクセシビリティーを確保する必要がある。

 6つ目の指針は、社会と環境の健康と安全を高めることで、そのためにAIシステムを使う必要がある。

 7つ目の指針は、説明責任に関係する。AIシステムとその結果について、責任と説明責任を確保するメカニズムを用意する必要がある。

 ECによると、このガイドラインは現在や将来のポリシー策定および規制をいかなる形式でも置き換える意図はなく、各国の規則導入を阻む手段とする意図もないという。

 ECはこのガイドラインを信頼できるAIに関する欧州での議論の出発点と捉え、AIシステムの倫理的な枠組みの調査、省察、議論を世界規模で育んでいくための一つの手段となることを望んでいる。

 「本ガイドラインは、随時更新されるドキュメントと捉え、技術、社会環境、知識の進化を絶えず反映しながら、時間の経過と共に見直しや改訂を行っていく必要がある」(ECの報告書より)

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る