なぜAnthropicはClaude Codeで「エージェントを作るな、スキルを作れ」と言うのか:企業AI活用の新モデルを提示
せっかく導入したAIエージェントで成果を挙げるにはどうすればいいのか。Anthropicは、AIエージェントを“ただ作る”のではなく、“スキルを作る”重要性を説く。実は、この開発思想は情シスにも関係がある。
AIエージェント開発の現場で、考え方が変わり始めている。これまで主流だったのは、「用途ごとに専用のAIエージェントを作る」という発想だ。しかし最近では、「AIエージェントそのもの」ではなく、「スキル」を作る方向へシフトする動きが出ている。
Anthropicのエンジニア、バリー・チャン氏とマヘシュ・ムラグ氏は、「AIエージェントは賢いが、実務に必要な専門知識を持っていない」と指摘する。その解決策として提案するのが「Agent Skills」(エージェントスキル)だ。
エージェントスキルは、AIエージェントへ業務ノウハウや専門知識を追加するための仕組みだ。
情シスも知っておきたいAIエージェントの“これからの開発標準”
併せて読みたいお薦め記事
AIエージェントの関連記事
Anthropicはこれまで、コーディングエージェント「Claude Code」や、「Claude Agent SDK」を提供してきた。同社は当初、「業務領域ごとに異なるAIエージェントが必要になる」と考えていたという。つまり、財務向け、研究向け、開発向けなど、用途ごとに専用エージェントを構築する発想だ。
だが、実際に運用を進める中で、考えは変わったという。同社は、「コード」がデジタル世界における共通インタフェースになり得ると判断した。例えば、財務レポートを作る場合でも、APIでデータを取得し、Pythonで分析し、Office文書へ出力するといった一連の流れを、コードベースで処理できる。
つまり、「AIエージェント本体」はある程度共通化できる可能性があるということだ。一方で、そこで新たな問題として浮上したのが「専門知識の不足」だ。
両氏はこれを、「高い知能を持つ人」と「経験豊富な専門家」の違いに例えて説明する。数学的に優秀でも、税務の専門家でなければ税務処理は任せにくい。AIエージェントも同様で、高性能ではあるものの、業務固有の知識や組織特有のルールを十分理解できていないケースがあるという。
「スキル」はフォルダに近い
そこでAnthropicが提案するのが「スキル」だ。同社はスキルを、「AIエージェント向けの手順知識をまとめたファイル群」と定義している。実態としては、「フォルダ」に近い概念だ。
スキルには、Markdown形式の説明ファイルだけではなく、Pythonのスクリプトや実行ファイル、各種ツールを含められるようになっている。例えば、スライドのデザイン調整を毎回AIがゼロから生成するのではなく、一度作成したスクリプトをスキルとして保存して再利用する。これによって、処理の一貫性や効率性を高められるという。
さらに重要なのが、「必要時のみ読み込む」という設計思想だ。大量のスキルを常時コンテキストへ投入すると、LLM(大規模言語モデル)のコンテキストウィンドウを圧迫する。そのため、まずメタデータだけを読み込み、必要になったタイミングで詳細情報を展開する「Progressive Disclosure」(段階的開示)を採用している。
MCPは「接続」、スキルは「専門知識」
Anthropicは、AIエージェントに必要な要素を「接続」と「ノウハウ」に分けて考えている。
MCP(Model Context Protocol)は、AIエージェントを外部システムにつなぐための仕組みだ。例えば、社内データベースやSaaS、ブラウザ、自社システムなどへアクセスする“接続口”の役割を担う。
一方、「スキル」は、その接続先を「どう使うか」という業務ノウハウをまとめたものだ。つまり、MCPだけでは「接続」はできても、「どの順番で何を実施するべきか」は分からない。そこでスキルを組み合わせることで、AIエージェントへ業務知識を追加するという考え方だ。
例えば、ブラウザ自動化ツール企業のBrowserbaseは、自社ツール向けスキルを提供している。これによってAIエージェントは、ブラウザ操作をより効果的に実行できるようになる。また、Notionは、ワークスペース分析向けスキルを公開している。
特に注目されているのが、大企業での活用だ。Anthropicによれば、一部のFortune 100企業では、組織固有のベストプラクティスや社内ソフトウェアの使い方をAIエージェントへ教えるために、スキルを利用し始めているという。開発部門で、コードスタイルや社内開発ルールをAIエージェントへ学習させるところもある。
情シスが管理すべき対象は「AI」ではなく「知識」になる?
Anthropicは、今後のAIエージェント基盤は、「エージェント本体+MCP+スキル群」という構成へ収束するとみている。AIエージェント本体は共通化し、MCPが外部接続を担い、スキルが業務ノウハウや専門知識を補う構造だ。
これは企業ITにとって、管理対象が変わる可能性を意味する。これまでは「どのようにAIエージェントを導入するか」が中心だった。しかし今後は、「どのスキルを組織で共有し、誰が保守し、どう品質管理するか」が重要になる可能性がある。
Anthropicは、将来的にはスキルを「ソフトウェアのように扱う」必要があると説明する。具体的には、テストや評価、バージョン管理、依存関係管理などだ。
さらに同社は、AIエージェント自身がスキルを作成し、将来の自分のために保存する世界観も示している。成功したワークフローやノウハウをスキルとして蓄積することで、AIエージェントが継続的に改善していくという考え方だ。
Anthropicは、この構造をコンピューティングの歴史になぞらえて説明する。モデルは「プロセッサ」、エージェントランタイムは「OS」、そしてスキルは「アプリケーション」に相当するという。少数の企業がモデルを開発する一方で、多数の企業や利用者が、自分たち独自の専門知識を「スキル」として追加していく未来を想定している。
つまり今後は、「AIをゼロから作る」のではなく、「汎用(はんよう)エージェントへ適切なスキルを装備する」ことが、企業AI活用の中心になる可能性がある。
本稿は、2025年12月9日に公開された「Don’t Build Agents, Build Skills Instead」を記事化したものです。
Copyright © ITmedia, Inc. All Rights Reserved.