英国キングス・カレッジ・ロンドンの研究で、主要AIモデルはシミュレーションされた危機の90%以上で核兵器の使用を解決策として提示した。AIの軍事利用のリスクを考える。
英国の大学、キングス・カレッジ・ロンドン(King's College London、以下KCL)が2026年2月に公開した研究報告によると、主要な人工知能(AI)モデルはシミュレーションされた危機シナリオの9割以上で「核攻撃の示唆」を解決策として選ぶことが明らかになった。昨今、軍事戦略の意思決定においてAIの利用が広がっている。KCLの研究結果が語る、その「リスク」とは何か。
KCLの研究では、OpenAIの「GPT-5.2」、Anthropicの「Claude Sonnet 4」、Googleの「Gemini 3 Flash」を対象に、危機シナリオの解決策としてどのような施策を提案するかを検証した。その結果、3つのAIモデルは95%のケースで核兵器の使用を示唆することが分かった。AIモデルが原子爆弾の投下を直接提案するケースも見られたという。
KCLによると、3つのAIモデルは譲歩や降伏、緊張緩和といった施策を提案しなかった。研究報告の著者らは、「3つのAIモデルは核兵器の使用を正当な手段として議論し、危機のエスカレーションの延長として捉えていた」と説明する。特にClaude Sonnet 4とGemini 3 Flashは道徳的な視点を持たず、核兵器を「道具」として語る傾向があったという。
AIモデルは、武力紛争における分析と意思決定のサポート役として導入が進んでいる。世界各国の防衛機関や情報機関は、危機を解決するためにAIモデルがどのように人間の判断を補完するかを探りつつある。今回のKCLの研究は使用するAIモデルによって、異なる結論が出る可能性があることを示した。
Anthropicは2026年2月、米国国防総省(United States Department of Defenseに対して完全自律兵器への利用を禁止する「レッドライン」を提示した。しかし米国防総省はこれに反発し、Claudeの利用を全軍で禁止する排除措置を下した。
マサチューセッツ工科大学(Massachusetts Institute of Technology)の人間・AIインタラクション専門家であるパット・パタラヌタポーン氏は、「最も危険なAIモデルは、悪意を持つ『ターミネーター型』ではなく、友好的に見えるが、人間の行動を予期しない方法で微妙に操るものだ」と指摘する。
軍事専門家の中には、現在のAIモデルが特定の軍事行動が適切かどうかを判断する能力を持っていないとみる人がいる。仮にAIモデルが軍事戦略の意思決定に関わることになれば、暴力の使用が増える可能性があるという見方もある。
Copyright © ITmedia, Inc. All Rights Reserved.
瞬時にM365が乗っ取られる――全社員に周知すべき“新フィッシング”の教訓
MFA(多要素認証)を入れたから安心という常識が崩れ去っている。フィッシング集団「Tycoon2FA」が摘発されたが、脅威が完全になくなったというわけではない。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...