生成AIアプリで4社に1社で事故発生か 「エージェント型AI」の危険度を探る:特定ユースケースは「ノーゴーゾーン」扱いすべき
ガートナーは、2028年までに企業向け生成AIアプリケーションの25%が、年5件以上のセキュリティインシデントを経験するとの予測を発表した。情シスリーダーが今すぐ設定すべき「ガードレール」と警戒すべき領域とは。
「AIに業務を任せるのはいいが、管理の届かない場所で勝手に動かれたらどう責任を取ればいいのか」――。現場の熱狂とは裏腹に、情報システム部門リーダーの不安は募るばかりだ。ガートナーの最新予測は、その懸念が数年以内に現実のものとなることを物語っている。
2028年までに、企業向け生成AIアプリケーションの4社に1社が、年間5件以上のセキュリティ事故を経験するというのだ。かぎを握るのは、自律的に動く「エージェント型AI」の台頭と、「Model Context Protocol(MCP)」の普及である。利便性を優先するあまり見落とされがちなセキュリティの「死角」をどう埋めるべきか。ガートナーが提唱する「ノーゴーゾーン(立ち入り禁止領域)」の定義と、組織を守るための具体的な防衛策を明かす。
どのような事故が起きるのか
ガートナーの予測によれば、企業向け生成AIアプリケーションの軽微なセキュリティインシデントの発生率は、2025年の9%から2028年には25%へと急増する見込みだ。さらに深刻なのは重大なインシデントの発生率で、2029年までに、全ての企業向け生成AIアプリケーションの15%が、年間少なくとも1件の重大事故を経験すると予測されている。これは2025年の3%から5倍に跳ね上がる計算だ。
リスク増大の背景には、組織がエージェント型AIの構築や統合を加速させている現状がある。特に「Model Context Protocol(MCP)」などの技術を用いる際、未成熟なセキュリティプラクティスがリスクエクスポージャ(危険にさらされる資産)の大幅な増加を招くという。
利便性を優先した「MCP」の落とし穴
MCPは、AIエージェントの相互運用性や開発の柔軟性を最優先に設計されている。しかし、ガートナーのバイスプレジデントアナリスト、ベン・ロード氏は「MCPはデフォルトでセキュリティを強化するものではない」と指摘する。
設計の主眼が開発スピードにあるため、通常の利用環境であっても設定ミスや誤りが表面化しやすい。特にエージェントが「機密データへのアクセス」「信頼できないコンテンツの取り込み」「外部との通信」という3つの要素を同一フロー内で行う場合、情報持ち出しのリスクが極めて高くなる。ガートナーは、これらの要素が組み合わさるユースケースを「ノーゴーゾーン(立ち入り禁止領域)」と定義し、強い警戒を呼びかけている。
情シスリーダーが講じるべき4つの防衛策
増大するリスクに、ガートナーはソフトウェアエンジニアリングやIT部門のリーダーに向けて、以下の対策を推奨している。
- 厳格なセキュリティレビューの実施
MCPのユースケースで正式なレビューを行い、高リスクな組み合わせを明示的に除外する。
- 低リスクパターンの優先
最初から高機能なエージェントを狙わず、安全性が確認されているパターンから導入を進める。
- エージェント特化の認証・認可
ユーザー権限をそのまま流用するのではなく、エージェント型AIのために設計された強固な認証プラクティスで補強する。
- 既知の脅威パターンの緩和
コンテンツインジェクション(悪意ある命令の注入)やサプライチェーンの脆弱性、不適切な権限昇格など、既知の攻撃パターンを事前につぶしておく。
「ドメイン専門家」によるガードレール構築
セキュリティ対策を大規模に機能させるには、IT部門だけで完結させないことが重要だという。ガートナーは、各業務分野の「ドメイン(特定分野の)専門家」がMCPサーバのオーナーとなり、ガードレールを定義することを提案している。
AIエージェントが複雑化するほど、一元的なデータ管理やコンプライアンスの維持は困難になる。だからこそ、現場の業務とデータに精通した専門家が、AIに許可するアクセス権限やリソースを事前に規定し、「デフォルトで安全」な状態を逆算して作り上げる必要があるとしている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
情シスは「何を知らないか」さえ知らない――AIエージェント時代の盲点とは
従業員が「AIエージェント」を使いこなす未来は、もはや現実だ。しかし、多くの情シス部門は従業員がどのツールにデータを入力しているかさえ把握できていない。AIエージェント革命に、組織が取るべき真の防衛策とは。
AIで守るのか、AIを守るのか――RSAC 2026が映し出したセキュリティの混迷
サンフランシスコで開催された「RSAC 2026」では、AIが議論の主役となった。しかし、その実態は「AIで守るのか」「AIを守るのか」が混在し、単一のベンダーで完結できない複雑なパズルのようになっている。
CISOが直面するAIエージェントの三重苦 脅威・管理・予算獲得を読み解く
2026年のRSAカンファレンスでは「AIエージェント」の普及が最大のテーマとなった。攻撃の高速化に対抗するための防御策から、複雑化する管理ツール、さらには組織内での予算獲得の在り方まで、情シスリーダーが直面する新たな変革を解説する。
ランサムウェア攻撃の新常識? 攻撃者はあなたの「保険金額」を知っているかもしれない
「ゼロトラスト」の生みの親、ジョン・キンダーバーグ氏はRSAC 2026で、サイバー保険がランサムウェア攻撃の拡大要因になっていると指摘した。何が起こっているのか。
生成AIが「危険サイト」に誘導する事例を確認、どのような手口?
生成AIは便利な一方で、新たな脅威の温床にもなっている。攻撃者がインターネット上の情報を不正に操作することで、生成AIが危険なWebサイトを案内してしまうという。どのような手口なのか。