「AIの軍事利用は、戦争終結の早期化に貢献する」という意見がある。果たして本当なのか。AI倫理の専門家に、AIの軍事利用に関する課題と併せて聞いた。
「倫理的な兵器の使用」の概念が広がっている。人工知能(AI)技術の軍事利用は、戦争の長期化抑制に貢献するという考え方だ。AI倫理の専門家エルケ・シュワルツ氏によると、米国のバラク・オバマ政権が「一般市民の犠牲者が減る」という主張の下で、イラクとアフガニスタンに対して遠隔攻撃用のドローンを利用し始めた頃、この概念は広まった。
シュワルツ氏は、「オバマ政権下の10年以上に及ぶドローン戦争では、一般市民の犠牲者は必ずしも減らなかった」と指摘する。ドローンを用いた攻撃の拡大は、「技術の軍事利用が自国兵士の命を守るための道義的責務だ」とする主張や、「LAWS」(人間がほとんどあるいは全く介入せずに標的を選定、探知、交戦できる自律型致死兵器システム)に賛同する主張につながった、と同氏は補足する。
「技術は武力に頼るハードルを下げているのが実情だ」とシュワルツ氏は指摘する。技術を利用することで攻撃の正確性が高まる半面、以前よりも武力に頼る傾向が強まれば、一般市民の被害が広がる可能性がある。
シュワルツ氏は「AI技術を用いた兵器は倫理的かつ道義的だ」という認識が、世間で広がってしまうことを憂慮する。問題は兵器をどのように、何のために使うかだが、兵器はあくまで殺人の道具だ。「簡単に使えるようになり使用機会が増えた場合、兵器は戦争抑制には貢献せず、むしろ真逆の状況を生んでしまう」(同氏)
「自律型兵器といった新しい軍事技術は、戦争終結の早期化に効果的だ」という主張について、シュワルツ氏は「過去数十年間で目にしてきた現実とは正反対の理論だ」と指摘する。欧米の列強国は、明らかに技術的に不利な対戦国に対して、高度な技術を用いた兵器を使用したが、結局戦争は長引いた。
人間の行動を監視するといった予防措置としてのAI技術活用についても、シュワルツ氏は懸念を示す。AI技術を利用した監視は人間を統計的に認識するため、各自が持つ微妙な差異や複雑さを見えなくする。これにより、差別や偏見を助長してしまうリスクが強まるといった問題がある。「AI技術は、軍事作戦の要として利用するには心もとない」(同氏)
第3回は、AI技術の軍事利用を議論する際の課題について解説する。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...