2023年08月22日 07時15分 公開
特集/連載

悪意なき「シャドー生成AI」が“深刻なデータ流出事件”につながる危険性生成AI時代のデータ管理術とは【前編】

セキュリティベンダーImpervaはIT部門が関与しないIT利用「シャドーIT」にちなみ、「シャドー生成AI」に警鐘を鳴らす。会社側が把握していない生成AI利用のリスクとは。

[Alex ScroxtonTechTarget]

 テキストや画像を自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)の利用が急速に広がっている。そうした中、生成AIを巡るセキュリティリスクが浮上している。セキュリティベンダーImpervaは、生成AIの利用に起因したデータ流出事件が、2023年から2024年にかけての1年で何回も発生する可能性があるとみる。どういうことなのか。

“悪意”には関係ない「シャドー生成AI」に潜む危険性

併せて読みたいお薦め記事

「生成AI」にはどう向かい合うべきなのか


 AI技術ベンダーOpenAIが開発した「ChatGPT」をはじめ、大規模言語モデル(LLM)を利用したチャットbotは、ビジネスのさまざまな用途に活用できる可能性がある。企業はチャットbotの利用に際して、AI技術の分析対象となるデータを慎重に管理する必要がある。

 Impervaシニアバイスプレジデント(データセキュリティ担当)兼CTO(最高技術責任者)のテリー・レイ氏によると、生成AIを利用する企業の大半は、データ管理体制を整っていない。特にレイ氏が不十分だと指摘するのは、ソースコードの作成やフォームへの情報入力といった作業に携わる、内部関係者によるデータ流出の予防策だ。

 内部関係者によるデータ流出は「必ずしも悪意があるとは限らない」とレイ氏は述べる。同氏によれば、従業員が仕事を効率化するために生成AIを利用し、それを会社側が把握していないことがある。従業員が生成AIを利用する際のセキュリティポリシーが定まっていなければ、不注意によってデータが流出しかねない。

 Impervaによると、内部関係者の行動に起因するデータ流出事件が目立つ。その大半は人的ミスに起因しているという。同社によれば、こうしたデータ流出事件が発生しているにもかかわらず、内部関係者によるデータ流出のリスクを十分に認識していない企業は珍しくない。


 後編は、データ流出を防ぐための「3つのポイント」を紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news102.jpg

バーガーキングが挑む「ハイパーパーソナライゼーション」を支えるすごいチーム
Burger KingのCMOパット・オトゥール氏は、ワッパーのカスタマイズに向けてMedia.Monksと...

news021.jpg

テストして分かった「Protected Audience API(旧FLEDGE)」 Cookieよりも期待できそうなこととは?
プライバシー保護を前提としつつ、Web上の行動追跡手段をどう確保するか。Googleがサード...

news180.jpg

電通「2023年 日本の広告費」 総広告費、インターネット広告費は2年連続で過去最高に
電通が「2023年 日本の広告費」を発表しました。主なトピックスを抜粋して紹介します。