従業員の5割以上が無断で生成AIを使う「シャドーAI」が、深刻な情報漏えいやコンプライアンス違反を招いている。禁止するだけでは解決しないこの難題に、情シスはどう立ち向かうべきか。
SaaSはビジネスに利便性と生産性をもたらしたが、同時に「シャドーIT」という予期せぬ副産物を生んだ。そして今、これに類する新たな問題として「シャドーAI」が浮上している。
シャドーITとは、情シス部門の正式な監視を受けずにソフトウェアやハードウェア、オンラインサービスを利用することだ。これはリスクの増大やワークフローの不整合、ツールの制御不能といった問題を引き起こす。2022年の「ChatGPT」公開後、企業は従業員が適切な承認なしにAIツールを利用するリスクに直面した。ボストンコンサルティンググループが2025年に発表した調査「AI at Work」によると、1万人以上の回答者のうち54%が、業務を完結させるために未承認のAIツールを利用している。これは企業にとって深刻な内部セキュリティリスクだ。
シャドーITを防ぐ戦略は既に存在するが、いまや企業は全社的なシャドーAIの利用を防ぐための新たな防御策を講じなければならない。本稿ではシャドーAIがもたらすリスクを明らかにし、最悪の事態を回避するための最善の策を解説する。
AIの正当な利用はビジネスを支えるが、管理には細心の注意を要する。未承認のAIツール利用は、組織に以下のような深刻な脅威をもたらす。
業務効率化のためにAIを使う際、顧客情報や機密情報を不用意に入力してしまう恐れがある。例えばChatGPTで機密報告書を要約させた場合、その情報はAIモデルの学習データとして取り込まれ、他者のプロンプトに対する回答として再浮上する可能性がある。IBMの2025年版「データ侵害のコストについての調査レポート」では、5社に1社がシャドーAIに関連したデータ漏えいを報告している。
AIツールへの機密情報入力は、法規制への抵触を招く。顧客の個人を特定できる情報(Personally Identifiable Information:PII)の露出は、GDPR(一般データ保護規則)やHIPAA(医療保険の相互運用性と責任についての法律)、PCI DSS(カード業界のデータセキュリティ基準)などの違反となり、巨額の罰金や社会的信用の失墜につながる。
AIツールはもっともらしい嘘をつく「ハルシネーション」を起こしたり、古い情報に基づいたりすることがある。これに基づいて採用判断や事業計画の策定を行うと、戦略的な失敗を招く。検証なしにAIの判断を導入すれば、顧客の不当な選別や採用候補者の排除といった問題を引き起こし、企業の評判を傷つける。
ブラウザの拡張機能として提供されるAIツールもある。悪意のあるAIプラグインを導入すれば、企業のネットワークへの新たな侵入経路となり、攻撃者に悪用されるリスクが高まる。
セキュリティチームはシャドーAIの利用を追跡できない。そのため、特定の意思決定がどのようになされたかの事後確認や、セキュリティインシデント発生時の調査が極めて困難になる。
ビジネス現場でのシャドーAIは、主に以下のような未承認の形で行われる。
シャドーAIの追跡は困難だが、リスクを軽減する戦略は存在する。被害を防ぐための4つのアプローチを紹介する。
この手法は、未承認の利用を「特定の制御とガイドラインを備えた組織的な採用」へと転換させるものだ。以下の5要素を組み合わせる。
まずは従業員がアイデア出しや要約、メールの下書きにAIを使っている現実を認める。ユースケースを特定することで、禁止するのではなく、安全な利用を可能にするポリシーを提案できる。
受容したワークフローを支えるため、セキュアな法人版AIツールを提供する。大規模言語モデル(LLM)のプライベートインスタンスの構築や、データプライバシーが保証された法人向けサブスクリプションの契約が有効だ。
新しいツールの評価テンプレートを確立する。承認プロセスが硬直的で遅いと、シャドーAIを助長する。機敏な審査体制を整え、セキュリティや法務チームがデータ保護規制への適合性を迅速に判断すべきだ。
機密データ保護のため、個人アカウントでの業務処理を厳禁とする。WebベースのAI画面に機密データを貼り付けられないよう、データ流出防止(DLP)ポリシーを適用する。
個人アカウントに入力されたデータは永続的に残る恐れがある。ハーモニックセキュリティの2025年の調査では、機密性の高いAI操作の45%が個人メールアカウント経由だった。退職者が業務データにアクセスし続けるのを防ぐため、オフボーディング時に個人アカウントの利用状況を確認し、業務データが残っていないかチェックする必要がある。
AIアムネスティとは、従業員が未承認のAI利用を「処罰なし」で自発的に申告することを促すプログラムだ。隠れた問題をガバナンスの対象へと引き出すのが狙いだ。成功には経営陣の強力な関与と、従業員との信頼構築が必要だ。以下の7ステップで進める。
組織は「見えないもの」を守ることはできない。シャドーAIを統制するには、IT環境の各層で多層的な検知を行うべきだ。
監視にあたっては、プロンプトの内容まで全て記録するのではなく「誰がどのツールを使っているか」に焦点を当てるなど、プライバシーへの配慮と透明性の確保が重要だ。
技術的な制御を超えて、従業員のAIリテラシーを高める投資が必要だ。これはAIを単に「使いこなす」だけでなく、業務データを取り扱う際のセキュリティやプライバシーの課題を正しく理解することを指す。
欧州のAI法(EU AI Act)第4条でも、AIシステムの運用に関わる人員で適切なAIリテラシーを確保することが義務付けられている。
教育は役割に応じて個別化すべきだ。開発者であれば、AIによるコード支援のベストプラクティスやAPI連携の安全性を学ぶ必要がある。一方で経営層は、プライバシーやセキュリティ、法的・倫理的責任といった広範なリスクを理解しなければならない。
Copyright © ITmedia, Inc. All Rights Reserved.
無許可AI利用「シャドーAI」を防ぐには? 今すぐ実行できる4つの施策
情シスは「何を知らないか」さえ知らない――AIエージェント時代の盲点とは
AIエージェントが「最強の内部犯」に? 情シスが抑えるべき新たなセキュリティリスク
「生成AI全社導入」の無理難題で疲弊する情シス 大事故を防ぐ“防衛策”は?
“シャドーAIはある”前提で考える、現実的なAI利用統制の判断軸
瞬時にM365が乗っ取られる――全社員に周知すべき“新フィッシング”の教訓
MFA(多要素認証)を入れたから安心という常識が崩れ去っている。フィッシング集団「Tycoon2FA」が摘発されたが、脅威が完全になくなったというわけではない。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...