悪意なき「シャドー生成AI」が“深刻なデータ流出事件”につながる危険性生成AI時代のデータ管理術とは【前編】

セキュリティベンダーImpervaはIT部門が関与しないIT利用「シャドーIT」にちなみ、「シャドー生成AI」に警鐘を鳴らす。会社側が把握していない生成AI利用のリスクとは。

2023年08月22日 07時15分 公開
[Alex ScroxtonTechTarget]

 テキストや画像を自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)の利用が急速に広がっている。そうした中、生成AIを巡るセキュリティリスクが浮上している。セキュリティベンダーImpervaは、生成AIの利用に起因したデータ流出事件が、2023年から2024年にかけての1年で何回も発生する可能性があるとみる。どういうことなのか。

“悪意”には関係ない「シャドー生成AI」に潜む危険性

併せて読みたいお薦め記事

「生成AI」にはどう向かい合うべきなのか


 AI技術ベンダーOpenAIが開発した「ChatGPT」をはじめ、大規模言語モデル(LLM)を利用したチャットbotは、ビジネスのさまざまな用途に活用できる可能性がある。企業はチャットbotの利用に際して、AI技術の分析対象となるデータを慎重に管理する必要がある。

 Impervaシニアバイスプレジデント(データセキュリティ担当)兼CTO(最高技術責任者)のテリー・レイ氏によると、生成AIを利用する企業の大半は、データ管理体制を整っていない。特にレイ氏が不十分だと指摘するのは、ソースコードの作成やフォームへの情報入力といった作業に携わる、内部関係者によるデータ流出の予防策だ。

 内部関係者によるデータ流出は「必ずしも悪意があるとは限らない」とレイ氏は述べる。同氏によれば、従業員が仕事を効率化するために生成AIを利用し、それを会社側が把握していないことがある。従業員が生成AIを利用する際のセキュリティポリシーが定まっていなければ、不注意によってデータが流出しかねない。

 Impervaによると、内部関係者の行動に起因するデータ流出事件が目立つ。その大半は人的ミスに起因しているという。同社によれば、こうしたデータ流出事件が発生しているにもかかわらず、内部関係者によるデータ流出のリスクを十分に認識していない企業は珍しくない。


 後編は、データ流出を防ぐための「3つのポイント」を紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

From Informa TechTarget

お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。

ITmedia マーケティング新着記事

news150.jpg

「猛暑」「米騒動」「インバウンド」の影響は? 2024年に最も売り上げが伸びたものランキング
小売店の推定販売金額の伸びから、日用消費財の中で何が売れたのかを振り返るランキング...

news110.jpg

Netflixコラボが止まらない 「イカゲーム」シーズン2公開で人気爆上がり必至のアプリとは?
Duolingoは言語学習アプリとNetflixの大人気ドラマを結び付けたキャンペーンを展開。屋外...

news199.jpg

Yahoo!広告における脱デモグラフィックの配信・分析を実現 電通が「DESIRE Targeting」を提供開始
電通の消費者研究プロジェクトチームは、消費者を理解し、Yahoo!広告の配信や分析を実施...