人間は「予測不能なこと」をAIに期待していない? 戦闘で考える“倫理問題”:AIにどこまで委ねるか?【前編】
人間はAIをどこまで信じるべきなのか。兵器にAI技術を組み込んだ「自律型兵器システム」が戦場に投入される可能性がある中で、これは重大な問題だ。掘り下げて考えてみよう。
人間は、AI(人工知能)技術が導き出す判断をどこまで信じられるのか――。これはAI技術を扱うさまざまな分野に関わる問題だが、人間のオペレーターが直接制御または指揮することなく標的を選定して攻撃する「自律型兵器システム」(AWS:Autonomous Weapon Systems)が戦闘に投入される可能性があることに関しては、特に考えるべき喫緊の問題だ。人間はAI技術の判断をどう見るべきなのか。
人間はAIの“あれ”を嫌う
2023年1月に英国議会は、AI(人工知能)技術の兵器利用について検討する調査委員会「AI in Weapon Systems Committee」を設立した。同年6月に開催した口頭弁論会では、調査委員会メンバーの英国貴族院(上院:House of Lords)議員に対し、法律やITの専門家が「AI(人工知能)技術の軍事投入はリスクを引き起こす」と警告した。
自律型兵器システムは複雑な状況を解析する十分な能力を備えていない。これを軍事投入すれば、以下のような問題を引き起こす可能性がある。
- 作戦が予測不可能になる
- 自動化バイアス(自動化システムからの出力を、別の情報源からの情報よりも信用してしまう人間の傾向)を生む
自律型兵器システムは、常に人間が制御する必要があるというのが専門家の意見だ。「現在のAI技術の能力を踏まえると、軍事行動の妥当性を評価したり、軍事的判断の責任を負わせたりすることは不可能だ」と専門家は見ている。
SRE(サイト信頼性エンジニアリング)ベンダーStanza Systemsでプリンシパルソフトウェアエンジニアを務め、英国の殺人ロボット撲滅キャンペーン「Stop Killer Robots」のメンバーとしても活動するローラ・ノーラン氏も、自律型兵器システムの軍事投入に反対の姿勢を示す。一般的に人間は、人間関係や状況の背景といったさまざまな要素を瞬時にくみ取り、柔軟に対処できる。最先端のAI技術であっても、人間と同じように行動することは難しいという。
AI兵器に状況を読み取って適切に行動してもらうためには、そのためのプログラムを組む必要がある。「機械学習(ML)によって環境やターゲットのプロファイリング(対象の情報を収集、分析して、その性質や嗜好、行動などを予測すること)を実施することはできるが、状況に適した柔軟な判断を下すことはできない」(ノーラン氏)
自律型兵器システムを戦場に投入する場合、人間のオペレーターや指揮官が攻撃の場所やタイミングをコントロールすることは極めて困難だとノーラン氏は警告する。巻き添えになる民間人や施設の被害がないかどうか予測することも難しい。戦闘状況のように、複数の行為者と構成要素が相互作用するシステムがある場合、複雑系理論の原則では発生し得る結果の数が指数関数的に増大する。「自律型兵器システムの動きを予測することは非常に難しい」とノーラン氏は話す。
中編は、自動化バイアスについて掘り下げて考える。
Computer Weekly発 世界に学ぶIT導入・活用術
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.