生成AIは業務のさまざまな場面で使われている。しかし使い方を誤れば、機密情報や個人情報が漏えいするリスクもある。漏えいを防ぐための対策を5つ紹介する。
テキストや画像を生成するAI(人工知能)技術「生成AI」の使い方を誤れば、個人情報や機密情報が漏えいする恐れがある。AIモデルの学習データに機密情報が含まれていたり、攻撃者が悪意のあるプロンプト(AIツールへの指示や命令)を入力して情報を漏えいさせたりする可能性がある。漏えいのリスクを減らすために有用な対策を5つ紹介する。
AIモデルの学習データから機密情報を削除すれば、漏えいのリスクを減らすことができる。ただしAIモデルの使用目的によっては、学習に機密データが必要となる場合もある。
サードパーティーベンダーが提供するAIサービスの導入を検討する際は、ベンダーの取り組みを精査する。そのサービスが企業のデータをどのように使用、保護しているか、データを安全に管理してきた実績があるかどうかを確認する。
生成AIが出力するデータを監視して、エンドユーザーが入手できる出力結果を制限する。例えば、エンドユーザーが財務データを閲覧できないようにしたい場合、AIモデルの出力結果からそうしたデータをフィルタリングする。そうすれば、エンドユーザーが機密情報にアクセスすることはできない。
十分にリスクを検証していないといった理由で、従業員の使用を許可できないAIサービスをブロックすることも一つの手だ。ただし、企業内のエンドポイントでAIアプリケーションやサービスをブロックしても、従業員が私用デバイスで利用する可能性は残る。
AIモデルの出力結果がネットワークやストレージ上で暗号化されていない場合、データ漏えいにつながる可能性がある。デフォルトでデータの暗号化を有効にしたり、既知の脆弱(ぜいじゃく)性が存在するサービスへのアクセス権限を最小限にとどめる「最小特権の原則」を実践したりして、ITインフラを保護することが有用だ。
TechTarget.AI編集部は生成AIなどのサービスを利用し、米国Informa TechTargetの記事を翻訳して国内向けにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
新規獲得が大事? だからこそCMOが「リテンション」を優先すべき理由
新規獲得は長らくマーケティングの最優先事項とされてきました。しかし、市場環境は変化...
コカ・コーラが腸活炭酸飲料市場に参入 新たな“ソーダ戦争”を勝ち抜くマーケティング戦略は?
健康志向の高まりにより、消費者は「より健康的な選択肢」を求めるようになっている。こ...
生成AIの活用、意外と進んだマーケティング部門と進まない営業部門 どうして差が生じた?
HubSpot Japanが実施した「日本の営業に関する意識・実態調査2025」のポイントを、記者説...