AIの判断で攻撃する「自律型兵器」は安全になるのか? 動き出す英国の危惧:軍事AIを巡る動き【第1回】
英国政府は、AI技術を組み込んだ自律型兵器の利用にまつわる調査や、実用化の検討を進める。具体的にどのような懸念点について、どのように検討を進めるのか。
英国議会の調査委員会「AI in Weapon Systems Committee」は、兵器システムにおける人工知能(AI)技術の使用を検討している。その中でも特に議論の対象となるテーマの一つが、自律型兵器の開発や実用化だ。
「自律型兵器」使用を巡る動き
併せて読みたいお薦め記事
「AI」が持ち得る危険性
自律型致死兵器システム(LAWS:Lethal Autonomous Weapons Systems)、もしくは自律型兵器システム(AWS:Autonomous Weapons Systems)は、人のオペレーターが直接制御または指揮することなく標的を選定、探知、攻撃する兵器システムだ。
英国議会は2023年1月にAI in Weapon Systems Committeeを設置した。その目的は、LAWSを開発、配備する際の倫理面を調査することだ。具体的には以下の事項を調査する。
- 安全かつ確実にLAWSを使用する方法
- LAWSが紛争を拡大するリスク
- LAWSの国際法への準拠状況
- LAWSを制御するために必要な安全装置
- 英国におけるLAWS関連政策の充足度
- LAWSに関する国際的政策決定の状況
LAWSの使用に関する調査の一環として、AI in Weapon Systems Committeeは広く情報の提供を求める意見公募「Call for Evidence」(根拠に基づく情報提供の照会)を実施。専門家かどうかにかかわらず、問題への意見を持つさまざまな人に、2023年4月14日(現地時間)までにCall for Evidenceに応じるよう求めている。
AI in Weapon Systems Committeeは2023年11月までにCall for Evidenceの完了を目指し、2023年3月〜7月の公開会議で参考人への聞き取り調査を開始する。調査結果を受けて、英国政府は2024年1月に見解を示す見込みだ。
第2回は、AI技術の軍事利用に対する英国政府の方針を巡る懸念や批判を紹介する。
Computer Weekly発 世界に学ぶIT導入・活用術
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.