「学習されない設定にしているから安全」と言われたら情シスは何と返せばいいのか。「シャドーAI」のリスクと情シスの責任範囲を整理し、推進と統制を両立するための判断軸を考える。
「学習されない設定にしているから大丈夫ですよね?」「うちの部署の詳しい人間が使っていいと言っていましたが」――。生成AI(人工知能)の業務利用が広がる中、情報システム部門(以下、情シス)への問い合わせがこんな形で届くようになった。
問い合わせが来るならまだいい。実態として、情シスに何も知らせないまま現場が生成AIツールを使い続けているケースもある。しかしインシデントが起きたとき、「なぜ把握していなかったのか」と問われるのは情シスだ。
「シャドーAI」の問題は、使っている従業員のリテラシーが低いことではない。情シスが「把握できない状態に置かれている」こと、そしてその状態のまま責任だけを問われる構造にある。本稿では、情シスがシャドーAI責任を本来どこまで負うべきかを整理した上で、「推進」と「統制」を両立するための判断軸を考えていく。
シャドーAIが情シスの管理外で広がる背景には、AIの進化速度という構造的な問題がある。
生成AIサービスの仕様や利用規約は頻繁に更新される。情シスがポリシーを検討している間に、現場の利用が既成事実化することは珍しくない。「禁止されていないから使っていい」という解釈が広がれば、情シスが気付いたときには相当数の従業員がすでに日常的に利用している、という状況が起きる場合もある。
AIツールの仕様変更は、ベンダー側の都合で予告なく実施される。昨日まで「学習に使われない」とされていた設定が、今日の利用規約では別の扱いになっていた、というケースも起き得る。情シスが全ての生成AIサービスの仕様変更を追い続けることは現実的に難しい。
シャドーITは、ネットワークログやデバイス管理ツールを通じて一定程度把握できる場合もある。しかし近年は、個人アカウントや未管理端末を使ったブラウザ利用が増えており、利用実態を完全に可視化することは難しい。特に生成AIツールでは、「誰がどのツールを使っているか」を十分に把握できないケースもあるほか、「何を入力したか」まで監視することは技術的、運用的に容易ではない。
見えにくいということは管理しにくいということだ。そして管理し切れない状態では、インシデントが起きたとき初めてその深刻さが明らかになる。
現場から届くこの主張は完全に間違っているわけではない。だからこそ情シスは言葉に詰まる。何が正しく、何が足りないのかを整理することが、情シスが「答えられる側」に立つための第一歩だ。
生成AIサービスの多くは、入力データをモデルの改善に利用しないオプトアウト設定を提供している。従業員が「学習されない設定にしている」と言うときは、この設定を指していることが多い。
ただし、この設定が意味するのは「入力データがモデルの追加学習に使われない」というだけだ。入力した瞬間にデータがサーバへ送信されること、サーバ側で処理・一時保存されることは避けられない。つまり、入力した時点でデータは企業の管理の外に出ている。
加えて、各サービスの利用規約や設定の仕様は頻繁に変わる。従業員が「学習されない」と認識している根拠が、すでに古い情報である可能性もある。
生成AIツールを法人契約した場合、企業とAIベンダーの間でデータ処理契約(DPA:Data Processing Agreement)を締結できる場合がある。DPAは、入力データの取り扱い方法、保存期間、第三者への提供制限などを定めた契約だ。個人アカウントの利用規約とは異なり、企業側の要件を交渉・反映できる余地がある。万一インシデントが発生した場合も、この契約がデータ管理の根拠として機能する。
一方、個人アカウントでの利用では、データの取り扱いについて企業側が条件を定める余地がない。従業員が個人アカウントでどのようなデータを入力していたかを、情シスは把握も制御もできない状態になりやすい。インシデントが発生した際に「従業員が個人で使っていた」という事実が、企業の管理責任を問う文脈で有効に機能するとは限らない。
シャドーAIに起因するインシデントが発生したとき、情シスはどこまで責任を負うのか。その範囲を整理しておくことが、情シスが経営層に説明する場面に有効に働く。
インシデントが表面化したとき、情シスには複数の問いが同時に飛んでくる。「なぜ把握していなかったのか」(シャドーAI利用の未把握)、「ポリシーがなかった理由」(ガイドラインの未整備)、「なぜ止めなかったのか」(技術的に制御しなかった不手際)。いずれも、事前に手を打っていなければ答えに詰まる問いだ。
ただし現実問題として、従業員の個人端末や個人回線でのシャドーAIの利用を技術的に完全に遮断することは難しく、それを情シスだけに求めるのは無理がある。
情シスの責任は「合理的な管理体制を整えていたかどうか」にある。また、体制を整えようとした形跡があるかどうかも、責任の所在を判断する上での分かれ目になる。定期的な利用状況の確認、ポリシーの整備過程の記録、承認ツールの提示などが、インシデント発生時の情シスの防衛線になる。
情シスが、シャドーAIの利用を全面禁止するのでも、無制限に放置するのでもなく、「管理可能な範囲で利用を認める」という立場を取るにはどうすればいいのか。次に、情シスが経営・現場の両方に説明できる判断フレームを整理する。
まず取り組むべきは、どの情報をAIに入力することが問題になるのかを類型化することだ。「社外秘」「個人情報」「顧客情報」「未公開の財務情報」などを「AIツールへの入力を禁止する情報」として具体的に定義する。「何でもNG」ではなく「この種の情報はNG」と具体化することで、現場が自己判断できる状態を作ることができる。
情報の分類はゼロから作る必要はない。すでに社内の情報管理規程や情報セキュリティポリシーに定義されている情報区分を、AI利用のコンテキストに当てはめるのが現実的だ。
情シスに求められるのは、AI利用を全面禁止することではなく、「会社として管理できるAI利用」へ現場を誘導することだ。
そのためには、個人契約のAIツールと、法人契約ツールの違いを整理する必要がある。個人アカウントでは利用実態を把握しにくく、ログ管理やアカウント停止も困難だ。一方、法人契約版であれば、シングルサインオン(SSO)連携や管理者設定、データ保護ポリシーなどを適用できる場合がある。
重要なのは、禁止することではない。「このツールを使ってほしい」と承認済みのAIツールを提示し、現場のAI活用を“管理可能な範囲”へ誘導することにある。
完全なログの取得は現実的に難しい。しかし、完全でなくても「把握しようとしている状態」を作ることには意味がある。定期的なアンケートや利用申告の仕組みを設けることで、情シスが利用実態をある程度把握していることを記録として残せる。
この記録は、インシデント発生時に「管理を怠っていたわけではない」という情シスの防衛線になる。また、現場がどのツールをどんな用途で使っているかが見えることで、次のポリシー整備の優先順位を立てる材料にもなる。
シャドーAIの責任を全て情シスが負う必要はない。しかし「把握しようとしていなかった」状態は、責任を問われる根拠になる。
「学習されない設定だから安全」という問いへの答えは、否定ではなく「それだけでは足りない理由の言語化」だ。個人アカウントにはDPAがない、入力した時点でデータはサーバに送られる、仕様は頻繁に変わる。これらを情シスが説明できる言葉として持つことが起点になる。それが、推進と統制を両立する道であり、シャドーAIに情シスが本来果たすべき役割の出発点になる。
Copyright © ITmedia, Inc. All Rights Reserved.
瞬時にM365が乗っ取られる――全社員に周知すべき“新フィッシング”の教訓
MFA(多要素認証)を入れたから安心という常識が崩れ去っている。フィッシング集団「Tycoon2FA」が摘発されたが、脅威が完全になくなったというわけではない。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...