検索
特集/連載

Copilotで「給与・機密が丸見え」の惨劇 “過剰共有”を封じる「自動統制」の正解MS 365 Copilot「権限管理」設定の決定打

生成AIが組織内の機密情報を勝手にさらけ出す「過剰共有」のリスクが顕在化している。「従業員の意識」や「手作業」では防げないこの事故を、システム側で確実に封じ込めるための具体的実装とは何か。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 「Copilot、部長の給与はいくら?」――。 もし従業員が面白半分でこう入力し、「Microsoft 365 Copilot」(以下、Copilot)が正確な数字を回答してしまったら、IT部門の責任問題は免れない。

 企業の機密情報は、ファイルサーバやSharePoint上でアクセス権が設定されているはずだ。しかし、Copilotの導入によって、これまで埋もれていた「設定ミスのファイル」や「意図せず共有されたデータ」が、強力な検索能力によって白日の下にさらされるリスクが高まっている。これが、Microsoftが警告する「過剰共有」(Oversharing)の正体だ。

 恐ろしいのは、この問題を「従業員のモラル」や「ファイル単位の権限見直し」という人的努力で解決しようとすることだ。膨大なファイル数を前に、それは事実上不可能に近い。では、どうすればよいのか。

 2025年11月に開催された「Microsoft Ignite 2025」において、この悪夢を断ち切るための「システムによる統制手法」が提示された。

「現場の努力」は無意味 Microsoftが提示した“過剰共有”封じ込め策

 Microsoft Ignite 2025のセッション「From oversharing to oversight: Managing risks in the AI era」に登壇したのは、「Copilot Control System」(CCS)のシニアプロダクトマーケティングマネジャーであるソフィー・ケ氏だ。CCSは、Copilotを安全に管理、ガバナンスするためのツールセットだ。

30秒で発表の内容を理解する

 企業がCopilotを導入する際、情報の過剰共有が課題となっている。Microsoftはこの問題に対し、CCSを軸に、システムによる監視と自動対応を可能にする複数の機能をMicrosoft Ignite 2025で発表した。キーワードは「信頼」「可視化」「自動化」だ。

3分で発表の内容を理解する

セッションの背景と問題意識

 企業内でAIツールを使う場合、本来アクセスできるべきでない情報がAI経由で過剰共有されるリスクがある。これを「人の意識」に頼らず、システムで統制する必要性が高まっている。

Microsoftの対応

 登壇者のケ氏は、AI活用における安全性を担保するCCSの取り組みを紹介。Copilotは「信頼性」を前提に以下の点で保護されているという。

  • データの暗号化
  • ユーザーによる制御
  • 学習へのデータの不使用
  • AIに関連するセキュリティ脅威への対策
  • 著作権の保護

CCSの3つの機能領域

  • セキュリティとガバナンス
  • 管理コントロール
  • 測定とレポート

主な課題と新機能

  • どのデータを参照しているか分からない
    • 管理センターに「セキュリティタブ」を追加
  • 機密情報が漏れる
    • 「DLP」(データ損失防止:Data Loss Prevention)サービスに「プロンプトブロック」機能を追加
  • 過剰共有の実態が見えない
    • Microsoftの管理ポータル「Microsoft Purview」に共有状態の可視化、制御を実施するための機能を追加

より高度な対策:自動化と委任

  • SharePoint Advanced Management(SharePointとOneDrive上のコンテンツを対象に、過剰共有や無秩序なWebサイト、ファイルの増殖を抑制し、ライフサイクル管理を自動化する機能群)
    • コンテンツのライフサイクルを自動管理できるようになった。
  • 権限レポート強化
    • 直接、間接的なアクセスの把握が可能になった。
  • エージェントアクセスインサイト
    • Copilotの挙動を可視化できるようになった。
  • サイト管理者への委任
    • 現場でもアクセス制御可能になった。

発表の詳細な内容を理解する

 ケ氏によると、Copilotは「信頼」を前提に設計されている。さらに、その信頼はMicrosoftの以下の仕組みによって支えられているという。

  • データは保存時も転送時も暗号化される
  • データはユーザーが制御する
  • データは基盤モデルの学習に使用されない
  • 悪意あるコンテンツ、セキュリティ機能を解除する「ジェイルブレーク」(脱獄)などといったAI関連のセキュリティ脅威からデータを保護する
  • 著作権を保護する

 一方、実運用では過剰共有とプロンプト経由の情報漏えい対策がリスクとなり得る。Copilotの課題は、Copilot自体にあるのではなく、誤った権限設定がもたらすリスクだ。

 ケ氏によると、CCSはCopilotとAIエージェントの管理を実施するための以下3つの機能領域で構成されている。

  • セキュリティとガバナンス
  • 管理コントロール
  • 測定とレポート

 そこでケ氏はセッションの中で、Copilot管理者の悩みと、その対応として発表された新機能を紹介した。

悩み1.どのデータをCopilotが参照しているか分からない。

 Microsoft 365管理センターに「セキュリティタブ」が追加された。データ漏えい防止、過剰共有管理、コンプライアンスの順守状況を一画面で可視化できるようになった。

悩み2.出力内容から機密データが漏れる。

 Microsoft PurviewのDLPにプロンプトブロック機能が追加された。同機能は、プロンプトに機密情報が含まれている場合、Copilotがその情報を使って社内データの探索やWeb検索を実行する前に停止し、情報の漏えいを防ぐものだ。

悩み3.過剰共有の実態を把握しにくい。

 Microsoft Purviewは従来、どのWebサイトにどのユーザーがアクセスできるかを一覧化した簡素なレポートを入手できる機能を搭載していた。しかし、過剰共有されている可能性のあるファイルやフォルダをユーザーが個別に確認し、必要な対策を取ることができる機能が追加された。具体的には、

  • リンクの削除
    • 外部共有リンクや不要な共有リンクを削除し、アクセスを制限する。
  • ラベルの付与
    • ファイルに「機密」「社外秘」などのラベルを付けて、ユーザーのアクセス権を自動的に制御する。
  • 通知
    • Webサイトの管理者や担当者に過剰共有されているファイルの存在を通知し、対応を依頼できるようにする。

 これらの機能追加により、過剰共有の「見える化」と「初動対応」は大きく前進した。しかし、ケ氏によると、現場のIT部門からは「それでもまだ足りない」という声が上がっていた。理由はシンプルで、「レポートを見るだけでなく、その後の修復作業まで、できる限り自動化したい」からだ。

 そこでMicrosoftは、SharePoint Advanced Managementを強化し、Copilot時代のコンテンツガバナンス基盤として位置付けた。

 セッションでは、「コンテンツ管理アセスメント」が紹介された。これは、テナント全体のコンテンツ状態をワンクリックで評価し、「無秩序なWebサイト、ファイルの増殖」「過剰共有」など注意が必要なWebサイト数をスコアカード形式で提示する機能だ。管理者は、どこから手を付けるべきかを直感的に把握でき、関連ドキュメントや推奨アクションへのリンクから、優先度の高いサイトから順に対策を進めることができる。

 次に、「カタログ管理」機能だ。テナント内のコンテンツを、地域、部門、ユーザー種別、マルチジオ環境におけるデータ配置(Preferred Data Location)といった単位で可視化し、どのエリアにどの程度のコンテンツが集中しているかを把握できるようになった。これにより、国や地域ごとの規制や部門ごとのポリシーに応じて、より細かなガバナンスを適用するための土台が整った。

 さらに、「権限レポート」が強化された。従来のサイト単位レポートに加え、特定ユーザーを指定して、そのユーザーがどのサイト・ファイルにどのような形でアクセスできるのかを詳細に確認できるようになったのだ。

  • 直接共有
    • ユーザー本人に対して明示的に共有されたコンテンツ。ユーザーもアクセス権を認識しているケースが多い。
  • 間接アクセス
    • グループやチーム経由で結果的にアクセス権を持っているコンテンツ。ユーザー本人は権限を自覚していないことも多い。

 Copilotは「ユーザーがアクセスできるコンテンツはすべて参照できる」という前提で動作する。このため、間接アクセスを含めた「実際の権限」を把握し、不要な権限を削減することが、過剰共有対策の鍵となる。

 過剰共有とエージェント利用の可視化に向けて、「エージェントアクセスインサイト」も追加された。これは、Copilotエージェントがどのコンテンツにアクセスしているのか、どのように利用されているかを把握するためのレポート機能だ。ここで得られた知見を基に、「特定のSharePointサイトなどに対して、Copilotのアクセスを制限する」制御機能を適用できるようになった。

 こうしたレポートや制御機能を、大規模テナントで継続的に運用するには、IT管理者だけでは手が回らない。そこでMicrosoftは、権限制御の一部をサイト管理者に委任できるようにした。具体的には、「制限付きアクセス制御」や「制限付きコンテンツ探索」をWebサイト単位で設定できる権限を付与し、現場のコンテンツオーナーが自らCopilotの参照範囲を絞り込めるようにしている。

 最後にケ氏が紹介したのが、「コンテンツガバナンスエージェント」だ。これは、SharePoint管理センターから利用できる専用のガバナンス用エージェントであり、次のようなタスクを支援する。

  • 権限管理
    • 各種権限レポートを横断的に参照し、見直しが必要なサイトやユーザーを特定する。
  • ストレージ/コンテンツ管理
    • コンテンツの分布や使用状況を把握し、不要なコンテンツの整理やアーカイブを提案する。
  • ライフサイクル管理
    • 使用されていないサイトや古いコンテンツを検出し、削除・アーカイブポリシーの適用を促す。
  • アクセス管理
    • エージェントからのアクセスや探索範囲を調整し、必要最小限の情報だけをAIに見せる。

 管理者は、このエージェントに対して「どこから手を付けるべきか」「どのWebサイトがリスクになり得るか」といった質問を投げ掛けるだけで、推奨アクションと実行手順を入手できる。将来的には、AIエージェントが一部の修復アクションを自動実行することもMicrosoftは視野に入れているという。

 過剰共有のリスクは、「人の意識」だけでは防ぎきれない。権限の複雑さ、コンテンツの増加スピード、AIによる横断検索という3つの要因が重なることで、現場の努力だけでは追いつかない状況に陥る恐れがある。MicrosoftがCCSと各サービスを連携させることで目指しているのは、「過剰共有から監視へ」、すなわち、人手依存のチェックから、システムによる継続的な監視と自動是正への転換だ。

 Copilotを本格的に活用したい企業にとって重要なのは、「AIを止めること」ではなく、「AIが参照してよいデータの範囲をシステム的に定義し、継続的に維持する」ことだ。そのための基盤として、CCSと各種サービスの組み合わせをどのように自社環境へ適用するかが、テーマになり得る。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る