従業員がIT部門の許可なしにAIツールを使う「シャドーAI」は、企業にとって深刻なリスクだ。IT部門はどうすればシャドーAIを防げるのか。すぐに実施できる4つの対策を説明する。
画像やテキストを自動生成するAI(人工知能)技術「生成AI」ツールは、さまざまな作業を自動化できるという意味で企業に大きなメリットをもたらす。しかし、生成AIツールの利用を巡るリスクもある。その一つは、従業員がIT部門の許可なしに使う「シャドーAI」だ。シャドーAIはデータ流出やコンプライアンス(法令順守)違反につながりかねない。シャドーAIを抑制するには、どうすればいいのか。4つの対策を紹介する。
企業はシャドーAIのリスクを軽減するために、さまざまな対策を講じることができる。シャドーAIを完全になくすことは難しいが、以下の対策によって悪影響を抑えることが可能だ。
ネットワーク監視ツールを使って従業員の行動やネットワークの利用状況をモニタリングすれば、シャドーAIを特定できる。許可されていないツールの利用を検出し、ネットワーク接続を遮断するといった処置が可能だ。ネットワーク監視ツールには、シャドーAIを「いつ」「誰が」「どう使ったか」を明らかにするための監査機能もある。
企業はAI技術の利用に当たり、過度な制約を避けたいと考える傾向がある。とはいえ、さまざまなリスクを軽減するためのルールづくりは欠かせない。AIガバナンスを構築するときは、許可されているAIツールの一覧、AIツールの利用方法、利用に当たっての責任範囲などを定めて、従業員に指導することが重要だ。特に、AIツールの倫理的利用や機密情報の取り扱いを軸にしたコンプライアンス意識を高める教育に取り組みたい。
AIツールの中核は、データを分析して回答を生成する「AIモデル」だ。AIモデルは、攻撃を受けて不正な指示が与えられる他、誤った設定などによって偏りのある回答や不正確な回答を生成する恐れがある。そうしたことを避けるための手法として、AIモデルに特化したモデルリスク管理(Model Risk Management:MRM)がある。MRMは、AI技術利用に内在するリスクを明確に定義し、それに対処する管理体制を整備する。企業はMRMによって、リスクの予見と責任の明確化を実現し、安全なAI技術利用に取り組めるようになる。
他のセキュリティ対策と同様、シャドーAIを防ぐためには、継続的な教育によって、従業員にシャドーAIのリスクを伝えることが不可欠だ。企業はIT部門や法務部門などとの連携を深め、社内で知識を共有しながら、AIガバナンス体制を強化することが求められる。
後編は、シャドーAIの対策を講じる際の注意点を取り上げる。
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...