多くの組織がインフラ運用へのAI投資を加速させる一方、ROIを達成できているのはわずか28%にすぎない。失敗の本質は、AIが社内特有の命名規則や制約を理解していない点にある。RAGによるコンテキスト注入やセキュリティ対策など、AIを「単なる検索ツール」から「信頼できる実務担当者」へ進化させる要諦を明かす。
インフラチーム向けにAIツールを導入したものの、期待した成果を得られていない組織は多い。
ガートナーの予測では、AIに最適化されたIaaSへの世界的な支出額は、2026年までに375億ドルに達するという。しかし、その多くは期待外れに終わる可能性がある。インフラ・運用部門のリーダー782人を対象とした同社の調査によると、AIの活用事例で投資収益率(ROI)の期待を完全に満たしたのはわずか28%だった。さらに、20%は完全に失敗している。
これはモデルの性能不足ではなく、導入戦略の不備が原因である。AIベンダーを切り替えたり、高価なツールに予算を投じたりするだけでは解決しない。
インフラ開発を自動化するAIエージェントの恩恵を受けるには、エージェントを最適化し、自社固有のデータを提供する必要がある。以下では、AIエージェントに必要なデータを与え、インフラ層で発生し得るセキュリティや運用の懸念に対処する方法を解説する。
多くのエンジニアは、AIエージェントをプラットフォームに組み込むのではなく、単なる「高性能な検索エンジン」として扱っている。障害や設定ミスを無計画にAIへ丸投げし、魔法のような解決策を期待しがちだ。
しかし、その結果得られるのは一般的な回答にすぎない。一見すると説得力があり役立ちそうに見えても、自社の環境には適合せず、本番環境を壊す恐れがある。
AIエージェントはコードの記述や複雑な問題の推論が可能だ。一方で、プロンプトだけでは克服できない構造的な弱点がある。それは「学習データによる制約」だ。Claude CodeやGitHub Copilotといった汎用モデルは、公開データのみを学習している。そのため、自社固有の運用ルールを把握していない。具体的には以下の情報を持ち合わせていないのだ。
エンジニアがAIエージェントの回答を修正し、自社システムに適合させるために時間を費やせば、本来の生産性向上は期待できない。CIOやリーダー層がAIツールを評価する際は、このギャップを埋める必要がある。成果が出るかどうかは、どのAIエージェントを選択するかではなく、組織がいかに内部知識をエージェントに提供できるかにかかっている。
自社のインフラ情報をAIエージェントに提供するには、3つのアプローチがある。
熟練のエンジニアが、記憶を頼りにプロンプトへ自社固有の指示を含める方法である。「わが社では……を使っている」といった単純な記述だ。これはエンジニアの記憶が正しい場合にしか機能しない。詳細を間違えたり、新人が必要な情報を知らなかったりすれば、信頼性と拡張性に欠ける手法となる。
社内標準を記したMarkdownファイルなどの場所をAIに指定する方法だ。あるいは、会話のたびに内容をコピーして入力する。しかし、これは手動の作業で、情報の更新が追い付かず、すぐに古くなる恐れがある。
さらに、組織の知識は数枚の書類に収まるものではない。Gitリポジトリ、Notion、Confluence、Slack、Zoomの議事録などに散在している。これらの情報源は重複や矛盾を含んでいる。AIと対話するたびにコピー&ペーストを繰り返すのは現実的ではない。
タスクに必要な情報だけを効率的に提供するには、検索拡張生成(RAG:Retrieval-Augmented Generation)を実装すべきだ。具体的には「取り込み(インジェクション)」と「検索(リトリーバル)」の2つのパイプラインを構築する。
最後に大規模言語モデル(LLM)が、抽出された運用情報と一般知識を組み合わせて回答を生成する。Kubernetesのコントローラーを使えば、この取り込み作業を自動化し、ドキュメントの変更と同期させることが可能だ。多くのインフラチームにとって、Kubernetesは既にワークロードが稼働している場所なので、新たなオーケストレーション層を導入する必要はない。
ただし、RAGの導入には注意点もある。構成要素が増えるため、インフラが複雑化する。また、データの構造が不適切だと回答の信頼性が下がるため、品質管理が重要となる。古いデータが残ると矛盾した回答を招くため、新しいデータを追加するだけでなく、古いデータを削除する設計が必要だ。
AIエージェントがインフラに深く関わるほど、セキュリティとコンプライアンスの重要性は増す。早期に対処すべき3つの領域がある。
エージェントは機密データに常にアクセスする。そのため、ミスが起きた際の影響範囲を考慮して、エージェントを特権を持つ従業員と同等に扱うべきだ。例えば、インフラの変更は許可しても、クラウドの請求システムへのアクセスは制限するといった厳格な管理が求められる。また、Pull Requestの作成は認めても、人間の承認なしに本番環境へマージさせるべきではない。
エージェントができること、できないことを制限する安全策が必要だ。データベースの展開やデータの削除、金銭が絡む処理など、リスクの高い操作には必ず「人間の介在(ヒューマンインザループ)」を条件とすべきである。
AIの推論は非決定論的で、出力や思考プロセスは予測できない。予期しないツールを呼び出したり、同じ質問に対して異なる回答をしたりすることもある。そのため、エージェントの挙動を監視する体制が必要だ。既存の監視ツールを拡張し、ツールの呼び出し状況や入出力を一元的に把握できるようにすべきだ。これは後付けではなく、必須要件として捉える必要がある。
運用のスケールにあたってエンジニアが直面する大きな課題が「コンテキストウィンドウの制限」と「コスト」だ。
エージェントが扱うデータ量が増え、コンテキストウィンドウ(AIが一度に処理できる情報量)に詰め込みすぎると、精度は低下する。情報の網羅性は必ずしも良い結果を生まない。パフォーマンスの悪化やコスト増、さらには不正確な回答を招き、システムが使い物にならなくなる。
これを防ぐには、MCPサーバとのやりとりごとにコンテキストを完全にリセットすべきだ。MCPを通じて、その時のタスクに必要な最新情報だけを取得する設計にする。
複数のAIシステムを同時に動かすと、コストは急速に膨らむ。1つの問い合わせが多段階の推論を引き起こし、大量のトークンを消費するためだ。対策として、リクエストの種類に応じて適切なモデルへ振り分ける「モデルルーティング」が有効だ。
要約や分類といった単純なタスクには安価なモデルを使い、高度な推論が必要な場合のみ強力で高価なモデルを使用することで、コストを最適化できる。
インフラ分野でのAI投資を成功させるために、リーダー層が構築すべきアーキテクチャの要件は以下の通りだ。
Copyright © ITmedia, Inc. All Rights Reserved.
「RAGは終わった」は本当か――ロングコンテキストが変えたこと、変えられないこと
「AIでインフラ運用の仕事はなくなる」は本当? 生き残るIT担当者の条件
AIでAIを監視する「ガードレール」構築術 エージェント暴走を防ぐには
“うそつきAI”はどう管理すべき? IT管理者が解消すべき3つのリスク
Copilotを使うほど請求が膨らむ? Microsoftが仕掛けるAIエージェント課金
瞬時にM365が乗っ取られる――全社員に周知すべき“新フィッシング”の教訓
MFA(多要素認証)を入れたから安心という常識が崩れ去っている。フィッシング集団「Tycoon2FA」が摘発されたが、脅威が完全になくなったというわけではない。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...