生成AIのデータ漏えいを「しない」「させない」対策5選:生成AIのデータ漏えいを防ぐ【後編】
生成AIは業務のさまざまな場面で使われている。しかし使い方を誤れば、機密情報や個人情報が漏えいするリスクもある。漏えいを防ぐための対策を5つ紹介する。
テキストや画像を生成するAI(人工知能)技術「生成AI」の使い方を誤れば、個人情報や機密情報が漏えいする恐れがある。AIモデルの学習データに機密情報が含まれていたり、攻撃者が悪意のあるプロンプト(AIツールへの指示や命令)を入力して情報を漏えいさせたりする可能性がある。漏えいのリスクを減らすために有用な対策を5つ紹介する。
生成AIのデータ漏えい対策5選
併せて読みたいお薦め記事
連載:生成AIのデータ漏えいを防ぐ
生成AI用セキュリティポリシーの作り方
1.学習前の機密データを削除する
AIモデルの学習データから機密情報を削除すれば、漏えいのリスクを減らすことができる。ただしAIモデルの使用目的によっては、学習に機密データが必要となる場合もある。
2.AIベンダーの取り組みを精査する
サードパーティーベンダーが提供するAIサービスの導入を検討する際は、ベンダーの取り組みを精査する。そのサービスが企業のデータをどのように使用、保護しているか、データを安全に管理してきた実績があるかどうかを確認する。
3.データの出力を制限する
生成AIが出力するデータを監視して、エンドユーザーが入手できる出力結果を制限する。例えば、エンドユーザーが財務データを閲覧できないようにしたい場合、AIモデルの出力結果からそうしたデータをフィルタリングする。そうすれば、エンドユーザーが機密情報にアクセスすることはできない。
4.サードパーティーのAIサービスの利用を制限する
十分にリスクを検証していないといった理由で、従業員の使用を許可できないAIサービスをブロックすることも一つの手だ。ただし、企業内のエンドポイントでAIアプリケーションやサービスをブロックしても、従業員が私用デバイスで利用する可能性は残る。
5.ITインフラを保護する
AIモデルの出力結果がネットワークやストレージ上で暗号化されていない場合、データ漏えいにつながる可能性がある。デフォルトでデータの暗号化を有効にしたり、既知の脆弱(ぜいじゃく)性が存在するサービスへのアクセス権限を最小限にとどめる「最小特権の原則」を実践したりして、ITインフラを保護することが有用だ。
TechTarget.AIとは
TechTarget.AI編集部は生成AIなどのサービスを利用し、米国Informa TechTargetの記事を翻訳して国内向けにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。