さまざまなビジネスの現場で活用が進む「生成AI」について懸念が広がっているのが、データ流出のリスクだ。セキュリティベンダーImpervaが考えるデータ保護術とは。
テキストや画像を自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)の利用が広がる中、セキュリティベンダーImpervaは会社側が把握していない生成AI利用「シャドー生成AI」に警鐘を鳴らす。シャドー生成AIには、データ流出を引き起こすリスクがある。データ流出を防ぐには、どうすればいいのか。
企業が従業員に対して、大規模言語モデル(LLM)を利用した「ChatGPT」などのチャットbotの利用を禁止するのは現実的ではない。「利用を禁止しても従業員はあの手この手を打って回避策を探る」。Impervaシニアバイスプレジデント(データセキュリティ担当)兼CTO(最高技術責任者)のテリー・レイ氏はそう語る。利用禁止はむしろ、シャドー生成AIの温床になる恐れがあると同氏は懸念する。
企業はどうすべきなのか。レイ氏が重要だと指摘するのは、生成AIの利用に当たってのデータ管理だ。データについて企業は、以下の点を明確に把握することが不可欠だと同氏は説明する。
レイ氏によれば、企業の内部関係者が生成AIを利用する際にデータ流出事件を防ぐポイントは3つある。以下の通りだ。
システムで取り扱っている全てのデータを把握し、可視化すること。IT部門が管理していない“シャドーデータベース”に重要なデータが格納されれば、故意なのか“うっかりミス”なのかを問わず、データ流出につながる可能性がある。
システムで取り扱っているデータを、「機密性」や「ビジネスの価値」といったカテゴリーで分類すること。これにより、データごとのセキュリティリスクを判断しやすくなり、適切なセキュリティ対策が講じやすくなると考えられる。
データのモニタリング(監視)や分析ができるツールの導入を検討すること。こうしたツールを使えば、データへのアクセスやデータの利用、新規アカウントの作成といった動きを把握し、「怪しい」と判断したらすぐに対策を講じることができる。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
AppleとMetaの戦い――AR・ウェアラブル領域で、勝つのはどっち?
Metaは年次イベント「Meta Connect 2024」において最新のARグラス「Orion」のプロトタイ...
2024夏アニメの人気維持率 「負けヒロインが多すぎる!」の特異な動き
ブシロードのグループ会社であるゲームビズは「アニメビジネスインサイト『データで見る2...
約8割の人が経験する「見づらいホームページ」 最も多い理由は?
NEXERはくまwebと共同で「見づらいホームページ」に関するアンケートを実施した。