AIエージェントが想像以上に普及し始めた? 遅れる“非人間ID”対策:問われるマシンID管理の重要性
ID・アクセス管理を手がけるOktaの最新調査によると、AIエージェントの広がりが、新たなセキュリティ問題を引き起こしている。どのような課題なのか。対策は。
人工知能(AI)技術を活用し、自律的に判断や処理を実行するシステム「AIエージェント」の普及が進む中、ID・アクセス管理(IAM)ツールベンダーのOktaが2025年8月に公開した調査レポートにより、AIエージェントが保持する「ノンヒューマンアイデンティティー」(非人間ID)がセキュリティ上の新たな懸念として浮上している実態が明らかになった。
非人間IDとは、人間以外の存在が保持する認証情報を指す包括的な用語だ。非人間IDには、アプリケーション、API(アプリケーションプログラミングインタフェース)、bot、RPA(ロボティックプロセスオートメーション)、仮想マシンなどが保持する認証情報「マシンID」が含まれる。AIエージェントは広範なシステムにまたがって機能することが多く、AIエージェントが利用する認証情報の管理が喫緊の課題となっている。
この調査は、Oktaから依頼を受けた調査会社AlphaSightsが、2025年5月に米国、カナダ、英国、フランス、ドイツ、オランダ、日本、インド、オーストラリアの9カ国にわたる、さまざまな分野の企業の経営幹部260人を対象に実施したものだ。
AIエージェントの普及は予想以上に進んでいる
調査によると、圧倒的大多数となる91%がすでにAIエージェントを導入済みと回答した。最も一般的な用途は「タスクの自動化」で、81%を占めた。65%が「カスタマーサービスおよび顧客サポート」、55%が「ITサポート」、51%が「コーディング」と続いた。AIエージェントがすでに企業に広く普及し、欠かせない存在になっている現状がうかがえる。
懸念事項については、1位が「データプライバシー」で68%を占めた。続いて60%が「セキュリティリスク」で、37%が「規制コンプライアンス(法令順守)とガバナンス」と回答した。英国のあるIT企業の経営幹部は、「AIエージェントがアクセスできる、あるいは将来アクセスする可能性のあるデータを考慮すると、人間と同じレベルのコントロールが不可欠だ」と語った。
Oktaによると、AIエージェントの認証情報には以下のような課題がある。
- 説明責任を果たすのが困難
- ライフサイクルが短く、動的なため、迅速なプロビジョニングとデプロビジョニング(適切な削除)が必要
- アクセストークンや暗号鍵、証明書など、多種多様
- 特権情報にアクセスすることが多い
- 追跡可能なログ機能が不足している
いずれの課題が自社において問題となっているかを尋ねる質問では、78%が「非人間IDの把握と管理」、69%が「非人間IDのライフサイクル管理」、57%が「可視性の低さ」、53%が「セキュリティリスクの高い非人間IDの修正」を挙げた。米国のある金融機関の経営幹部は「AIエージェントが保持するアクセス権限のレベルの高さと、実行するタスクの重要性を考えると、そのコントロールとガバナンスが非常に重要だ」と語った。
こうしたAIエージェントが持つマシンIDの管理において不可欠になりつつあるのが「ID・アクセス管理」(IAM)だ。AIエージェントの導入や連携に当たり、85%が「IAMが非常に重要」もしくは「重要」と回答した。
IAMが重要と思う理由については、36%が「データセキュリティとデータプライバシー」、30%が「コンプライアンスと規制」、26%が「アクセスコントロールとガバナンス」を挙げた。オーストラリアのヘルスケア・製薬企業の経営幹部は、「最大の懸念は、AIエージェントが適切な管理なしに過剰なアクセス権限を持つことだ。慎重に管理しなければ、機密データが漏洩(ろうえい)したり、悪用されたりする可能性がある。強力な監視とアクセス制御が不可欠だ」と語った。
しかし、非人間IDを管理するための戦略を策定済みと回答したのはわずか10%にとどまった。フランスのある小売企業のバイスプレジデントは、「ロードマップが欠如しており、グループとしてAIエージェントをどのように導入すべきかについて意見がまとまっていない」と回答した。
Oktaは「今回の調査は、AIエージェント導入に当たりスピードが最優先される一方で、セキュリティが課題という複雑な現状を明らかにした」と述べている。
Oktaで欧州、中東、アフリカ(EMEA)地域の最高情報セキュリティ責任者(CISO)を務めるスティーブン・マクダーミッド氏は、英国Computer Weeklyのインタビューに応え、企業におけるAIエージェントの急増について“恐ろしい”と表現し、次のように語った。「ショッピングなど、日々の生活を楽にするために、AIエージェントを個人で使うシーンをイメージしてほしい。課題は、AIエージェント同士が連携をするときだ。AIエージェントが何をしてもよくて、何をしたら駄目なのか、境界線を定義する方法が定まっていない」
「顧客企業と話すと、自社のAIエージェントの構築だけでなく、他のAIエージェントとどう連携させるかという課題に直面していることが分かる。本当に厄介で複雑な課題だ。AIエージェントの爆発的な増加に伴い、不適切なデータ共有を防ぐためのフレームワークやガバナンスが早急に求められている」(マクダーミッド氏)
ガバナンスのための対策
Oktaは、対策として以下のようなガバナンスを確立するよう企業にアドバイスする。
ガバナンスの体制を整える
多くの組織でAIエージェントとそのマシンIDのガバナンスが確立していない状況が明らかになった。ガバナンスを負担ではなく、重大な損失につながりかねないリスクから組織を保護するための手段と捉えるべきだ。ガバナンス策定は従来、経営幹部の役割だったが、データサイエンティストなどのデータ責任者、各事業部門のリーダーなど、AIエージェントに関連する全てのリーダーを巻き込むことが必要だ。
IAMにセキュリティを組み込む
マシンIDの可視性とライフサイクル全体でのアクセス制御を実現し、脅威の検知と対応を組み合わせることで、AIエージェントをより安全に導入、管理することが可能になる。
マシンIDの厳格な管理
環境内で使用されるマシンIDを、従業員の認証情報と同等の、厳格なガバナンスの下で扱う。補足的な情報だが、請負業者やパートナーなどの社外の人材も、社内の従業員と同様にIAMの対象とすべきだ。
システムの設計段階からセキュリティを重視したアプローチを採る
システムにAIエージェントを組み込む場合、認証、APIアクセス制御、非同期処理、検索拡張生成(RAG)の認可など、人間のエンドユーザーの認証とは異なるアプローチが必要だ。
翻訳・編集協力:雨輝ITラボ(リーフレイン)
Copyright © ITmedia, Inc. All Rights Reserved.