英国がはっきりと示さない「AI兵器」の“震え上がる中身”:軍事AIを巡る動き【第2回】
英国政府は、AI技術を軍事領域に活用するための調査や検討を進めている。しかし、政府の方針を巡り、懸念や批判の声が上がっている。その理由とは。
2022年6月、英国国防省(MoD)は人工知能(AI)技術を利用した防衛戦略「Defence Artificial Intelligence Strategy」を発表した。政府は民間部門と密接に連携し、軍の近代化を目的に、AI技術の研究開発と実験に優先して取り組むというのがその趣旨だ。
戦略に対する“批判”の理由
併せて読みたいお薦め記事
連載:軍事AIを巡る動き
「AI」との付き合い方を考える
軍事領域におけるAI技術の活用について、頻繁に議論を呼ぶのが、自律型致死兵器システム「LAWS」(Lethal Autonomous Weapons Systems)だ。LAWSは人間のオペレーターが直接制御または指揮することなく、標的を選定、探知、攻撃する兵器システムを指す。
Defence Artificial Intelligence Strategyは、LAWSに関する方針の詳細に一部言及するのみにとどまる。しかし付属の政策文書には、「適切な人為的介入なしに標的を特定、選択、攻撃できる兵器システムの使用は許容できない」と記載がある。「MoDは世界の各国政府やAI専門家と懸念を共有し、適切な人為的介入なしに動作する兵器システムの開発と使用に反対する」との意見も示す。
「LAWSといった兵器の使用は、国際人道法の基本原則や、英国のAI技術に関する倫理原則が示す基準を満たさない。AI技術や自律性のレベルに関係なく、人間の責任は排除できない」というのがMoDの見解だ。英国政府は同盟国や提携国と引き続き連携し、LAWSにまつわるリスクの解消に取り組む。
英国政府がDefence Artificial Intelligence Strategyを発表した当初、英国の殺人ロボット撲滅キャンペーン「Stop Killer Robots」は次の懸念を表明した。「LAWSの使用に際して、人為的介入が必要なことを政府が認識したことは意義深い。しかし『状況に合わせた適切な人為的介入』をどのように判断し、理解すべきかには触れていない」
「英国が定義を曖昧にし続けることは、判断を軍に委ねることと同じだ」とStop Killer Robotsは指摘する。同キャンペーンは、「英国政府はパブリックコメント(一般市民からの意見公募)や全国的な議論を実施することなく、Defence Artificial Intelligence Strategyを策定したのではないか」という懸念も示す。
第3回は、AI技術の軍事利用に関する国際協議の、進行状況や課題を解説する。
Computer Weekly発 世界に学ぶIT導入・活用術
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.