生成AIで「情報漏えい」や「罰金」も 最悪の事態を招きかねない6つのリスク生成AIを巡るリスクと対処法【前編】

企業での生成AIツール活用が広がる中、そのリスクを認識せずに使い続けると、機密情報流出や法律違反といった思いがけない問題に発展する恐れがある。安全な生成AI利用のために知っておきたい「6つのリスク」とは。

2025年08月26日 06時00分 公開
[Nihad HassanTechTarget]

 画像やテキストを自動で生成するAI(人工知能)技術「生成AI」は、業務効率化や品質向上、サービス開発の支援など、企業にさまざまなメリットをもたらす。一方で、不適切な利用による情報漏えいやAIモデルを狙った攻撃などのセキュリティリスクもあり、安全に利用するための戦略が欠かせない。セキュリティ戦略を策定する上でまず重要なのは、具体的なリスクを知ることだ。本稿は、生成AIを活用する企業が直面する「6つのリスク」を解説する。

情報漏えいだけじゃない 生成AIに潜む6つのリスク

リスク1.データ流出

 外部の生成AIツールに企業が保有するデータを入力すると、そのデータが流出する恐れがある。特に、個人を特定できる情報や財務情報、医療記録といった機密データを取り扱う際は、細心の注意を払わなければならない。ある医療機関では、従業員が医療記録を要約するために生成AIツールを使ったが、保護策が不十分でデータ侵害が発生した。

 広く普及している生成AIツールとして、AIベンダーOpenAIのAIチャットbot「ChatGPT」がある。企業がChatGPTを利用する場合、従業員のChatGPTアカウントが攻撃されたら、そのアカウントでやりとりしていた機密データが漏えいしかねない。

リスク2.生成AIツールの脆弱性

 他のツールと同様に、生成AIツール自体にも脆弱(ぜいじゃく)性が存在する可能性がある。生成AIツールの土台となるAIモデルを訓練するためのデータセットにも、セキュリティ問題が潜んでいる場合がある。

 Palo Alto Networks傘下のセキュリティベンダーProtect AIが提供するバグ報奨金プログラム「Huntr」は、オープンソースの生成AIツールやAIモデルの脆弱性を記録している。その中には「ChuanhuChatGPT」「Lunary」「LocalAI」といったツールの脆弱性がある。これらの脆弱性が悪用されると、不正なプログラムの実行や情報の窃取につながる恐れがある。特に、AIアプリケーション開発ツールLunaryには、共通脆弱性評価システム(CVSS)における評価が「緊急」(スコア9.1)である2つの深刻な脆弱性がある。

  • CVE-2024-7474
    • 攻撃者がリクエストURLの「id」パラメータを操作することで、外部ユーザーのアカウント情報を閲覧、削除できる。
  • CVE-2024-7475
    • 攻撃者が認証規格「SAML」の認証構成を勝手に変更できるようにする。

リスク3.データポイズニング

 生成AIツールを支えるAIモデルは大量のデータで訓練されている。訓練データは主にインターネットで公開されている情報から取得されるが、企業独自のデータを含むこともある。「データポイズニング」は、攻撃者が訓練データに悪意のある情報を注入することで、AIモデルが誤った出力を生成したり、攻撃者の目的に従って動作させたりする攻撃手法だ。データポイズニング攻撃は、生成AIの信頼性を根底から覆しかねない。

 訓練データを攻撃者が窃取するリスクもある。窃取を防ぐには、厳格なアクセス制御やデータの暗号化が有効だ。

リスク4.コンプライアンス違反

 企業は生成AIツールの利用に当たり、コンプライアンス(法令順守)違反のリスクを意識する必要がある。具体的には以下のリスクがある。

  • 機密データの漏えい
    • 個人情報をAIモデルの訓練に使用することは、欧州連合(EU)の一般データ保護規則(GDPR)をはじめとしたデータ保護関連の法規制に違反しかねない。違反した場合、罰金が科せられる可能性がある。
  • 知的財産権や著作権法の侵害
    • AIモデルの訓練データには、書籍や雑誌、学術誌などの著作権で保護されたコンテンツが含まれる場合がある。著作権で保護されたコンテンツを使って生成した出力物を許諾や引用なしで使用すると、著作権者から損害賠償を請求されるなど、法的な問題に発展する可能性がある。
  • 生成AIツール利用の非開示
    • 近年、生成AIツールを使った顧客対応することが広がっている。国や地域によっては、生成AIツールの使用を開示することが法律で義務付けられているので、生成AIツールの使用を事前に顧客に知らせない場合、罰則の対象になる可能性がある。

リスク5.コンテンツの捏造(ねつぞう)

 生成AIツールを用いて実在の人物を模倣した画像や動画、音声を作成する「ディープフェイク」も、生成AIによるリスクだ。攻撃者はディープフェイクを悪用して、企業の幹部や取引先になりすまして金銭をだまし取るといった巧妙な詐欺を仕掛ける。

リスク6.ソーシャルエンジニアリングの巧妙化

 「ソーシャルエンジニアリング」は、人の心理を巧みに操って意図通りの行動をさせる詐欺手法だ。生成AIツールは、標的に関する情報を収集して、個人に最適化されたフィッシングメールの自動作成を可能にする。生成AIツールが作成したフィッシングメールは、人が作成したものと見分けが付かないほど表現が自然なことがあるため、警戒心がある人でもだまされる恐れがある。


 後編は、生成AIツールを安全に利用するためのベストプラクティス(最適な方法)を紹介する。

Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。

アイティメディアからのお知らせ

From Informa TechTarget

なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか

なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

ITmedia マーケティング新着記事

news017.png

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

news027.png

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

news023.png

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...