悪意なき「シャドー生成AI」が“深刻なデータ流出事件”につながる危険性:生成AI時代のデータ管理術とは【前編】
セキュリティベンダーImpervaはIT部門が関与しないIT利用「シャドーIT」にちなみ、「シャドー生成AI」に警鐘を鳴らす。会社側が把握していない生成AI利用のリスクとは。
テキストや画像を自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)の利用が急速に広がっている。そうした中、生成AIを巡るセキュリティリスクが浮上している。セキュリティベンダーImpervaは、生成AIの利用に起因したデータ流出事件が、2023年から2024年にかけての1年で何回も発生する可能性があるとみる。どういうことなのか。
“悪意”には関係ない「シャドー生成AI」に潜む危険性
AI技術ベンダーOpenAIが開発した「ChatGPT」をはじめ、大規模言語モデル(LLM)を利用したチャットbotは、ビジネスのさまざまな用途に活用できる可能性がある。企業はチャットbotの利用に際して、AI技術の分析対象となるデータを慎重に管理する必要がある。
Impervaシニアバイスプレジデント(データセキュリティ担当)兼CTO(最高技術責任者)のテリー・レイ氏によると、生成AIを利用する企業の大半は、データ管理体制を整っていない。特にレイ氏が不十分だと指摘するのは、ソースコードの作成やフォームへの情報入力といった作業に携わる、内部関係者によるデータ流出の予防策だ。
内部関係者によるデータ流出は「必ずしも悪意があるとは限らない」とレイ氏は述べる。同氏によれば、従業員が仕事を効率化するために生成AIを利用し、それを会社側が把握していないことがある。従業員が生成AIを利用する際のセキュリティポリシーが定まっていなければ、不注意によってデータが流出しかねない。
Impervaによると、内部関係者の行動に起因するデータ流出事件が目立つ。その大半は人的ミスに起因しているという。同社によれば、こうしたデータ流出事件が発生しているにもかかわらず、内部関係者によるデータ流出のリスクを十分に認識していない企業は珍しくない。
後編は、データ流出を防ぐための「3つのポイント」を紹介する。
Computer Weekly発 世界に学ぶIT導入・活用術
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.