検索
特集/連載

ChatGPTを正しく使うには? 「シャドー生成AI」を安全にするポイント3選生成AI時代のデータ管理術とは【後編】

さまざまなビジネスの現場で活用が進む「生成AI」について懸念が広がっているのが、データ流出のリスクだ。セキュリティベンダーImpervaが考えるデータ保護術とは。

Share
Tweet
LINE
Hatena

 テキストや画像を自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)の利用が広がる中、セキュリティベンダーImpervaは会社側が把握していない生成AI利用「シャドー生成AI」に警鐘を鳴らす。シャドー生成AIには、データ流出を引き起こすリスクがある。データ流出を防ぐには、どうすればいいのか。

「生成AIの利用禁止」より検討すべきデータ流出防止の3大ポイント

 企業が従業員に対して、大規模言語モデル(LLM)を利用した「ChatGPT」などのチャットbotの利用を禁止するのは現実的ではない。「利用を禁止しても従業員はあの手この手を打って回避策を探る」。Impervaシニアバイスプレジデント(データセキュリティ担当)兼CTO(最高技術責任者)のテリー・レイ氏はそう語る。利用禁止はむしろ、シャドー生成AIの温床になる恐れがあると同氏は懸念する。

 企業はどうすべきなのか。レイ氏が重要だと指摘するのは、生成AIの利用に当たってのデータ管理だ。データについて企業は、以下の点を明確に把握することが不可欠だと同氏は説明する。

  • 誰がアクセスしたのか
  • 何のためにアクセスしたのか
  • どのようなツールや方法でアクセスしたのか

 レイ氏によれば、企業の内部関係者が生成AIを利用する際にデータ流出事件を防ぐポイントは3つある。以下の通りだ。

1つ目のポイント

 システムで取り扱っている全てのデータを把握し、可視化すること。IT部門が管理していない“シャドーデータベース”に重要なデータが格納されれば、故意なのか“うっかりミス”なのかを問わず、データ流出につながる可能性がある。

2つ目のポイント

 システムで取り扱っているデータを、「機密性」や「ビジネスの価値」といったカテゴリーで分類すること。これにより、データごとのセキュリティリスクを判断しやすくなり、適切なセキュリティ対策が講じやすくなると考えられる。

3つ目のポイント

 データのモニタリング(監視)や分析ができるツールの導入を検討すること。こうしたツールを使えば、データへのアクセスやデータの利用、新規アカウントの作成といった動きを把握し、「怪しい」と判断したらすぐに対策を講じることができる。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る