生成AIは業務のさまざまな場面で使われている。しかし使い方を誤れば、機密情報や個人情報が漏えいするリスクもある。漏えいを防ぐための対策を5つ紹介する。
テキストや画像を生成するAI(人工知能)技術「生成AI」の使い方を誤れば、個人情報や機密情報が漏えいする恐れがある。AIモデルの学習データに機密情報が含まれていたり、攻撃者が悪意のあるプロンプト(AIツールへの指示や命令)を入力して情報を漏えいさせたりする可能性がある。漏えいのリスクを減らすために有用な対策を5つ紹介する。
AIモデルの学習データから機密情報を削除すれば、漏えいのリスクを減らすことができる。ただしAIモデルの使用目的によっては、学習に機密データが必要となる場合もある。
サードパーティーベンダーが提供するAIサービスの導入を検討する際は、ベンダーの取り組みを精査する。そのサービスが企業のデータをどのように使用、保護しているか、データを安全に管理してきた実績があるかどうかを確認する。
生成AIが出力するデータを監視して、エンドユーザーが入手できる出力結果を制限する。例えば、エンドユーザーが財務データを閲覧できないようにしたい場合、AIモデルの出力結果からそうしたデータをフィルタリングする。そうすれば、エンドユーザーが機密情報にアクセスすることはできない。
十分にリスクを検証していないといった理由で、従業員の使用を許可できないAIサービスをブロックすることも一つの手だ。ただし、企業内のエンドポイントでAIアプリケーションやサービスをブロックしても、従業員が私用デバイスで利用する可能性は残る。
AIモデルの出力結果がネットワークやストレージ上で暗号化されていない場合、データ漏えいにつながる可能性がある。デフォルトでデータの暗号化を有効にしたり、既知の脆弱(ぜいじゃく)性が存在するサービスへのアクセス権限を最小限にとどめる「最小特権の原則」を実践したりして、ITインフラを保護することが有用だ。
TechTarget.AI編集部は生成AIなどのサービスを利用し、米国Informa TechTargetの記事を翻訳して国内向けにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
TikTokのトレンドに変化 なぜ「1分超え」動画が見られている?
Bufferのデータによると、TikTokでは最近、長めの動画が人気を集めている。
アドビが「10種類のAIエージェント」を発表 顧客体験はどう変わる?
アドビの年次イベント「Adobe Summit 2025」が開催された。初日の基調講演では、アドビの...
「ブランドは叩かれて強くなる」 ジャガーのCMOが語った炎上の乗り越え方
SXSWで開催された「Female Quotient」のイベントにおいて、Jaguar Land Roverの米国CMOは...