コンピュータによる計算は正確だと言えるが、AIモデルが計算によって導き出す答えを人間が信じるかどうかは別の話だ。ただし人間はAIモデルが出力する結果を信じる傾向にある。
人間のオペレーターが直接制御または指揮することなく標的を選定、探知、攻撃する兵器システム「自律型兵器システム」(AWS:Autonomous Weapon Systems)について、戦場に投入するかどうかの議論が広がっている。SRE(サイト信頼性エンジニアリング)ベンダーStanza Systemsでプリンシパルソフトウェアエンジニアを務め、英国の殺人ロボット撲滅キャンペーン「Stop Killer Robots」のメンバーでもあるローラ・ノーラン氏は、自律型兵器システムの懸念を指摘する。その一つが、自動化システムからの出力を、別の情報源からの情報よりも信用してしまう人間の傾向「自動化バイアス」だ。
ノーラン氏によると、自動化バイアスを完全に排除するのは不可能だという。「ヒューマンファクター」(システム全体の機能に影響する人間の特性)の分野では、自動化バイアスをいかに減らしていくかについての研究が活発に実施されてきた。しかしノーラン氏によると、その解決法はまだ分かっていない。攻撃の戦略的価値を自律的に判断することは、自律型兵器システムには難しいというのが同氏の考えだ。「AI兵器はあくまでMLモデルで認識できる要素に注目し、ただ計算をしているだけ。軍事的な価値は何も分からないはずだ」
ケンブリッジ大学(University of Cambridge)でCentre for the Study of Existential Risk(CSER:生存リスク研究センター)客員研究員を務めるタニエル・ユセフ氏は、自律型兵器システムが画像を識別するために、数学的に画像ピクセルを割り当てる方法を説明し、「計算が正確だったとしても、導き出される結果が必ずしも正しいわけではない」と指摘する。
ユセフ氏は例として、犬と猫の画像を識別するために設計したAIアルゴリズムのテストを挙げる。テストでは、AIアルゴリズムが猫を犬だと誤って判断したケースもあり、このように単純なタスクでさえ失敗する可能性が露呈した。同様の失敗が戦場で起きて、現地で民間人が殺害される可能性は否定できない。そうした事態が起きても、兵器は「計算結果だった」としか説明できない。
AI技術による計算結果は正確に見えるので、人間はつい決定を委ねてしまう傾向にある。しかし、コーディングされた計算結果は正しくても、戦場においてはその結果が正しいとは限らない。計算によってどのように目標を導き出したのか、システムがどのようにその目標を達成するのかは、実行されるまで分からないことも問題だ。「攻撃の妥当性の判断をAIに責任を委ねることは、技術的に不可能だ」とユセフ氏は強調する。
後編は、AIの軍事利用に関する議論の動向について解説する。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
CMOはつらいよ マッキンゼー調査で浮かび上がるAI時代の厳しめな業務実態
生成AI、研究開発、価格戦略……。慢性的なリソース不足の中でマーケターの業務範囲はま...
「リンクレピュテーション」とは? SEO対策や注意点もわかりやすく解説
「リンクレピュテーションって何のこと?」「なぜ重要?」「リンクレピュテーションを意...
MAツール「MoEngage」 DearOneが日本語版UI提供へ
NTTドコモの子会社であるDearOneは、AI搭載のMAツール「MoEngage」の日本語版を2025年1月...