AIモデル「Grok 4」騒動で露呈した“ルールなき進化”の危ない末路:AI安全対策の現状
最新AI技術への注目が高まる中、安全対策を軽視した導入が招く深刻な問題が浮き彫りになっている。企業は何を重視すべきなのか。
「人工知能(AI)業界は性能競争を優先し、安全性への配慮が後回しになっている」――調査会社 RPA2AI ResearchのCEOのカシャップ・コンペラ氏はこう警鐘を鳴らす。その最たる例が、イーロン・マスク氏が率いる「xAI」の、最新生成AIモデル「Grok 4」を巡る一連の騒動だ。旧バージョンで反ユダヤ主義的な回答が問題視された直後に新モデルを投入したことで、業界が安全対策を軽視している姿勢が改めて浮き彫りとなった。責任あるAI開発は本当に実現可能なのか。
Grok 4の性能
AIベンダーのxAIとPerplexity AIが、主流ベンダーに挑戦する新しいモデルと製品をリリースした。特に注目を集めているのが、xAIが2025年7月9日(現地時間)にリリースした「Grok 4」だ。
マスク氏によるライブ配信では、Grok 4がLLMベンチマーク「Humanity's Last Exam」をはじめ、数学や化学、言語学の各テストで大学院レベルの成績を記録したと強調された。同氏は「学術分野の質問ではGrok 4は例外なく博士号レベルを上回る」と自信を示している。
技術仕様と機能面での進歩
Grok 4は推論と問題解決能力を持ち、Grok専用の検索エージェント機能「DeepSearch」 を使って、ソーシャルメディアプラットフォーム「X」(旧Twitter)を含むWeb全体から根拠情報を収集できる。質問を細かな手順に分解し、複雑な調査でも段階的に答えを導く設計だ。マルチモーダル生成AIとして、文章と画像の両方を入力できる他、新たに音声機能「Eve」を搭載している。25万6000トークンという大容量コンテキストを保持し、複数タスクを同時に走らせるエージェント機能も備えている。
料金体系は2つのバージョンに分かれている。
- SuperGrok
- 月額30ドル(単一エージェントタスクを実行)
- SuperGrok Heavy
- 月額300ドル(マルチエージェント機能を搭載)
ただし発表タイミングは疑問視された。Grok 3のリリースから約5カ月後 、しかも前モデルが反ユダヤ主義的な応答で批判を浴びた直後のリリースだったため、安全対策より性能向上を急いだのではないかという懸念が残る。
併せて読みたいお薦め記事
AIのリスクと共存する
- “汎用人工知能(AGI)の脅威をAIベンダーが利用する” その議論の中身とは
- 「AIは怖い」を払拭 信頼できるAIを構築するためのポイントをおさらい
- 「AGI」は「AI」と何が違う? AGIが人間を超える日は来るか
専門家が指摘する根本的問題
IT調査会社ガートナーで生成AIを担当するアナリスト、アルン・チャンドラセカラン氏は、xAIの研究力と技術力そのものは高く評価しつつ、開発過程での安全対策が後回しになっていると指摘する。「性能だけでなく、安全策を開発の主軸に据える必要がある」というのが同氏の見解だ。
とりわけ懸念されているのは、Grokが情報源としてXの投稿を広く取り込む点だ。Xは政治・文化を巡る議論が過激化しやすく、検閲やファクトチェックも限定的だ。そのため、極端な意見や誤情報が学習データに混ざり、モデルが偏った出力をしやすくなる恐れがある。
調査会社The Futurum Groupのブラッドリー・シミン氏は、ベンチマークスコアへの過度な依存にも警鐘を鳴らす。「ベンチマークはあくまで目安に過ぎない。企業は数値だけでなく、実運用での安全性や公平性を確認した上で採用を判断すべきだ」と強調している。
業界全体に広がる「安全軽視」の風潮
Grokが反ユダヤ主義的な回答を出した件について、xAIは「プログラミングミスだった」と説明した。しかしイリノイ大学シカゴ校のマイケル・ベネット氏は、「この騒動は、生成AIが有用かつ偏りのない回答を社会に受け入れられる形で提供するには、まだ多くの改良が必要であることを示す明確な証拠だ」と指摘する。
コンペラ氏は、さらに厳しい評価を下す。「今回のGrok騒動は、十分な安全策や監視体制がないまま機能を際限なく拡張したAIの危険性を示す鋭い警告だ。業界はAIガバナンスと安全対策に投資も注意も不足している」と述べる。
この状況は企業の導入判断にも影響を与える。チャンドラセカラン氏は「モデルの安全性と責任あるAIへの取り組みは、多くの企業にとってベンダー選定の重要な要素だ。xAIが本格的に企業向け市場で競争力を得たいのであれば、安全性とガバナンスの面で大幅な改善が欠かせない」と語る。
Perplexity AIの新戦略
一方、同日にPerplexity AIは、AI搭載Webブラウザ「Comet」を発表した。Cometを現在利用できるのは、有料のPerplexity Maxプランに加入しているユーザーと招待を受けた一部のユーザーに限られる。CometはSlackなどの主要な企業アプリケーションとシームレスに連携し、Webブラウザ上の作業をAIが支援できる点が大きな特徴だ。
シミン氏は、Perplexityの戦略を次のように解説する。「Perplexity AIは、従来型検索エンジンが収益源として守り続けてきた『広告で稼ぐ検索結果ページ』というモデルに執着していない。広告収入の減少を恐れて生成AIの導入に慎重な姿勢を取る大手ベンダーとは対照的に、PerplexityはAIを中核に据えたユーザー体験を構築している。そのため、検索とブラウジングを一体化する大胆なアプローチを選んでいる」
安全性確保への道筋
ベネット氏は、AIツールが瞬時に国境を越えて利用される今日の状況を踏まえ、「米国だけの基準では不十分であり、世界各地域が共有できる幅広い規範づくりが不可欠だ」と訴える。
業界全体には、技術革新のスピードと安全対策を両立させる新しい枠組みが求められている。コンペラ氏が指摘するように、今回の騒動は、AI業界に「本気でガバナンスに向き合う時期が来た」と気付かせる警鐘である。
Grok 4は高度な性能を示したものの、重要なのはその裏側で責任あるAI開発をいかに実践するかだ。今回の事例は、技術進歩だけでは不十分であり、透明性や説明責任、リスク管理を含む包括的なガバナンス体制の整備が急務であることを浮き彫りにしている。
翻訳・編集協力:雨輝ITラボ(株式会社リーフレイン)
Copyright © ITmedia, Inc. All Rights Reserved.