セキュリティベンダーImpervaはIT部門が関与しないIT利用「シャドーIT」にちなみ、「シャドー生成AI」に警鐘を鳴らす。会社側が把握していない生成AI利用のリスクとは。
テキストや画像を自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)の利用が急速に広がっている。そうした中、生成AIを巡るセキュリティリスクが浮上している。セキュリティベンダーImpervaは、生成AIの利用に起因したデータ流出事件が、2023年から2024年にかけての1年で何回も発生する可能性があるとみる。どういうことなのか。
AI技術ベンダーOpenAIが開発した「ChatGPT」をはじめ、大規模言語モデル(LLM)を利用したチャットbotは、ビジネスのさまざまな用途に活用できる可能性がある。企業はチャットbotの利用に際して、AI技術の分析対象となるデータを慎重に管理する必要がある。
Impervaシニアバイスプレジデント(データセキュリティ担当)兼CTO(最高技術責任者)のテリー・レイ氏によると、生成AIを利用する企業の大半は、データ管理体制を整っていない。特にレイ氏が不十分だと指摘するのは、ソースコードの作成やフォームへの情報入力といった作業に携わる、内部関係者によるデータ流出の予防策だ。
内部関係者によるデータ流出は「必ずしも悪意があるとは限らない」とレイ氏は述べる。同氏によれば、従業員が仕事を効率化するために生成AIを利用し、それを会社側が把握していないことがある。従業員が生成AIを利用する際のセキュリティポリシーが定まっていなければ、不注意によってデータが流出しかねない。
Impervaによると、内部関係者の行動に起因するデータ流出事件が目立つ。その大半は人的ミスに起因しているという。同社によれば、こうしたデータ流出事件が発生しているにもかかわらず、内部関係者によるデータ流出のリスクを十分に認識していない企業は珍しくない。
後編は、データ流出を防ぐための「3つのポイント」を紹介する。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...