ChatGPTを正しく使うには? 「シャドー生成AI」を安全にするポイント3選生成AI時代のデータ管理術とは【後編】

さまざまなビジネスの現場で活用が進む「生成AI」について懸念が広がっているのが、データ流出のリスクだ。セキュリティベンダーImpervaが考えるデータ保護術とは。

2023年08月28日 05時15分 公開
[Alex ScroxtonTechTarget]

 テキストや画像を自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)の利用が広がる中、セキュリティベンダーImpervaは会社側が把握していない生成AI利用「シャドー生成AI」に警鐘を鳴らす。シャドー生成AIには、データ流出を引き起こすリスクがある。データ流出を防ぐには、どうすればいいのか。

「生成AIの利用禁止」より検討すべきデータ流出防止の3大ポイント

 企業が従業員に対して、大規模言語モデル(LLM)を利用した「ChatGPT」などのチャットbotの利用を禁止するのは現実的ではない。「利用を禁止しても従業員はあの手この手を打って回避策を探る」。Impervaシニアバイスプレジデント(データセキュリティ担当)兼CTO(最高技術責任者)のテリー・レイ氏はそう語る。利用禁止はむしろ、シャドー生成AIの温床になる恐れがあると同氏は懸念する。

 企業はどうすべきなのか。レイ氏が重要だと指摘するのは、生成AIの利用に当たってのデータ管理だ。データについて企業は、以下の点を明確に把握することが不可欠だと同氏は説明する。

  • 誰がアクセスしたのか
  • 何のためにアクセスしたのか
  • どのようなツールや方法でアクセスしたのか

 レイ氏によれば、企業の内部関係者が生成AIを利用する際にデータ流出事件を防ぐポイントは3つある。以下の通りだ。

1つ目のポイント

 システムで取り扱っている全てのデータを把握し、可視化すること。IT部門が管理していない“シャドーデータベース”に重要なデータが格納されれば、故意なのか“うっかりミス”なのかを問わず、データ流出につながる可能性がある。

2つ目のポイント

 システムで取り扱っているデータを、「機密性」や「ビジネスの価値」といったカテゴリーで分類すること。これにより、データごとのセキュリティリスクを判断しやすくなり、適切なセキュリティ対策が講じやすくなると考えられる。

3つ目のポイント

 データのモニタリング(監視)や分析ができるツールの導入を検討すること。こうしたツールを使えば、データへのアクセスやデータの利用、新規アカウントの作成といった動きを把握し、「怪しい」と判断したらすぐに対策を講じることができる。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news060.jpg

Z世代が考える「日本が最も力を入れて取り組むべき課題」1位は「ジェンダー平等」――SHIBUYA109 lab.調査
SDGsで挙げられている17の目標のうち、Z世代が考える「日本が最も力を入れて取り組むべき...

news061.png

高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...

news193.jpg

IASがブランドセーフティーの計測を拡張 誤報に関するレポートを追加
IASは、ブランドセーフティーと適合性の計測ソリューションを拡張し、誤報とともに広告が...