悪意なき「シャドー生成AI」が“深刻なデータ流出事件”につながる危険性生成AI時代のデータ管理術とは【前編】

セキュリティベンダーImpervaはIT部門が関与しないIT利用「シャドーIT」にちなみ、「シャドー生成AI」に警鐘を鳴らす。会社側が把握していない生成AI利用のリスクとは。

2023年08月22日 07時15分 公開
[Alex ScroxtonTechTarget]

 テキストや画像を自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)の利用が急速に広がっている。そうした中、生成AIを巡るセキュリティリスクが浮上している。セキュリティベンダーImpervaは、生成AIの利用に起因したデータ流出事件が、2023年から2024年にかけての1年で何回も発生する可能性があるとみる。どういうことなのか。

“悪意”には関係ない「シャドー生成AI」に潜む危険性

併せて読みたいお薦め記事

「生成AI」にはどう向かい合うべきなのか


 AI技術ベンダーOpenAIが開発した「ChatGPT」をはじめ、大規模言語モデル(LLM)を利用したチャットbotは、ビジネスのさまざまな用途に活用できる可能性がある。企業はチャットbotの利用に際して、AI技術の分析対象となるデータを慎重に管理する必要がある。

 Impervaシニアバイスプレジデント(データセキュリティ担当)兼CTO(最高技術責任者)のテリー・レイ氏によると、生成AIを利用する企業の大半は、データ管理体制を整っていない。特にレイ氏が不十分だと指摘するのは、ソースコードの作成やフォームへの情報入力といった作業に携わる、内部関係者によるデータ流出の予防策だ。

 内部関係者によるデータ流出は「必ずしも悪意があるとは限らない」とレイ氏は述べる。同氏によれば、従業員が仕事を効率化するために生成AIを利用し、それを会社側が把握していないことがある。従業員が生成AIを利用する際のセキュリティポリシーが定まっていなければ、不注意によってデータが流出しかねない。

 Impervaによると、内部関係者の行動に起因するデータ流出事件が目立つ。その大半は人的ミスに起因しているという。同社によれば、こうしたデータ流出事件が発生しているにもかかわらず、内部関係者によるデータ流出のリスクを十分に認識していない企業は珍しくない。


 後編は、データ流出を防ぐための「3つのポイント」を紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news131.jpg

メッシやベリンガム、ヴィルツも登場 アディダスが世界で展開する豪華過ぎるサッカー推しキャンペーンの中身
Adidasが夏のサッカーシーズンに向けて新キャンペーンを世界各地で展開する。デビッド・...

news058.jpg

Web広告施策に課題を感じている企業は9割以上――リンクアンドパートナーズ調査
企業のWeb広告施策を推進している担当者約500人を対象に、課題と今後の取り組みについて...

news183.jpg

TikTokマーケティングの最適解へ スパイスボックスが縦型動画クリエイター集団M2DKと業務提携
スパイスボックスが縦型動画クリエイター集団であるM2DKと業務提携。生活者に向けて訴求...