生成AIは業務のさまざまな場面で使われている。しかし使い方を誤れば、機密情報や個人情報が漏えいするリスクもある。漏えいを防ぐための対策を5つ紹介する。
テキストや画像を生成するAI(人工知能)技術「生成AI」の使い方を誤れば、個人情報や機密情報が漏えいする恐れがある。AIモデルの学習データに機密情報が含まれていたり、攻撃者が悪意のあるプロンプト(AIツールへの指示や命令)を入力して情報を漏えいさせたりする可能性がある。漏えいのリスクを減らすために有用な対策を5つ紹介する。
AIモデルの学習データから機密情報を削除すれば、漏えいのリスクを減らすことができる。ただしAIモデルの使用目的によっては、学習に機密データが必要となる場合もある。
サードパーティーベンダーが提供するAIサービスの導入を検討する際は、ベンダーの取り組みを精査する。そのサービスが企業のデータをどのように使用、保護しているか、データを安全に管理してきた実績があるかどうかを確認する。
生成AIが出力するデータを監視して、エンドユーザーが入手できる出力結果を制限する。例えば、エンドユーザーが財務データを閲覧できないようにしたい場合、AIモデルの出力結果からそうしたデータをフィルタリングする。そうすれば、エンドユーザーが機密情報にアクセスすることはできない。
十分にリスクを検証していないといった理由で、従業員の使用を許可できないAIサービスをブロックすることも一つの手だ。ただし、企業内のエンドポイントでAIアプリケーションやサービスをブロックしても、従業員が私用デバイスで利用する可能性は残る。
AIモデルの出力結果がネットワークやストレージ上で暗号化されていない場合、データ漏えいにつながる可能性がある。デフォルトでデータの暗号化を有効にしたり、既知の脆弱(ぜいじゃく)性が存在するサービスへのアクセス権限を最小限にとどめる「最小特権の原則」を実践したりして、ITインフラを保護することが有用だ。
TechTarget.AI編集部は生成AIなどのサービスを利用し、米国Informa TechTargetの記事を翻訳して国内向けにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...