検索
特集/連載

「AIモデル泥棒」のデータ漏えいでは済まない“真の恐ろしさ”とは知財流出では済まない盗難のリスク

AI技術が急速に進化する一方で、深刻化しているのがAIモデルの盗難リスクだ。企業にとって重要な知的財産であるAIモデルが盗まれると、機密情報の漏えいや風評被害など甚大な影響が及ぶ可能性がある。

Share
Tweet
LINE
Hatena

 AI(人工知能)技術は企業や政府の在り方を根本から変える存在として期待され、巨額の投資がAI分野に集中している。AI技術を次の収益源として目当てにしているのは企業だけではない。脅威グループも既に独自のAIシステムを構築し、企業が独自に構築したAIシステムや機密データを盗む手法を確立しつつある。そうしたAI技術を活用した脅威に対して、企業の防御体制はまだ十分とは言えない。

AIモデルが盗まれた場合の甚大な影響

 AIモデルはAIシステムの基盤を成す要素だ。特定のアルゴリズムを活用することで、人間の指示なしに意思決定を行ってタスクを実行することが可能になる。そうしたAIモデルを独自に開発するのに多大な時間とコストを要するため、「AIモデルの盗難」は最も深刻な脅威の一つだと言える。ここでいう盗難とは、AIモデルに対する不正アクセスや無断複製、あるいはリバースエンジニアリング(解析による設計情報の逆算)を指す。攻撃者がAIモデルのパラメーターやアーキテクチャを入手すれば、その情報を基にオリジナルAIモデルの複製ができるだけでなく、訓練に使われた貴重なデータの一部を抽出できてしまう可能性もある。

 AIモデルが盗まれると、企業に甚大な影響を及ぼす恐れがある。例えば、次のような事態が想定される。

  • 知的財産の喪失
    • 独自に開発したAIモデルや、それが扱うデータは、企業にとって極めて重要な知的財産だ。これが盗まれれば、競争優位が損なわれ、長期的な収益見通しにも悪影響を及ぼしかねない。
  • 機密情報の流出
    • サイバー攻撃者が、盗んだAIモデルの訓練に使われた機密データにアクセスできれば、その情報を悪用して企業内の他の資産を侵害する可能性がある。こうした情報漏えいは、経済的損失だけでなく、顧客からの信頼喪失や規制当局による罰金など、深刻な結果を招き得る。
  • 悪意あるコンテンツの生成
    • 盗まれたAIモデルが、ディープフェイクやマルウェア、フィッシング詐欺といった悪意あるコンテンツの作成や脅威に使われる可能性もある。これにより、さらなるセキュリティリスクが発生する。
  • 風評被害
    • AIモデルや機密データを十分に保護できなかった企業は、深刻な風評被害に長期間さらされる可能性がある。ブランドイメージや信頼の回復には時間を要するだろう。

AIモデル盗難の攻撃タイプ

 「AIモデルの盗難」と「モデル抽出」という用語は、ほぼ同義で用いられる。モデル抽出とは、攻撃者がAIシステムに対して巧妙に設計したプロンプト(質問文)を投げ掛けることで、AIモデルのパラメーターやアーキテクチャに関する情報を引き出す手法だ。

 このような攻撃が成功すると、元のAIモデルをリバースエンジニアリングし、模倣モデル(シャドーモデル)を作成できてしまう。「モデル反転攻撃」もある。これは、モデル抽出と同様にクエリベースで実行される攻撃手法で、AIモデルの訓練に使用された元データの一部を復元することを目的としている。

 AIモデル盗難の派生的な手口として「モデルの不正再公開」がある。これは、攻撃者が公開済み、あるいは盗み出したAIモデルを無断でコピーし、自分たちの目的に合わせて再訓練する手法だ。中には、意図的に悪意ある動作をさせるようにモデルを作り変えるケースもある。

 AIモデルの窃取を狙う攻撃者は、AIシステムの挙動を詳しく把握するために、実行時間や電力消費、音波といった動作情報を解析する「サイドチャネル攻撃」のような手法を用いることもある。悪意を持った内部関係者や、設定ミス、パッチ未適用のソフトウェアの脆弱(ぜいじゃく)性といった古典的なサイバー脅威が、結果的にAIモデルを外部の攻撃者にさらす原因になることもある。

AIモデル盗難防止と被害軽減策

 AIモデルの盗難を防ぎ、被害を最小限に抑えるために、アプリケーションのセキュリティ向上を目的とした国際団体OWASP(Open Worldwide Application Security Project)は、次のようなセキュリティ対策の実施を推奨している。

  • アクセス制御の強化
    • 多要素認証(MFA)などを用いた厳格なアクセス制御を導入し、不正アクセスを防ぐ。
  • バックアップの取得
    • AIモデルのコードや訓練データを含めて定期的にバックアップを取り、万一の盗難に備える。
  • データとソースコードの暗号化
    • AIモデルのソースコード、訓練データ、機密情報を暗号化し、情報の漏えいリスクを低減する。
  • 法的保護の整備
    • AIモデルに特許などの正式な知的財産保護を検討する。これにより、盗難が発生した際に明確な法的手段を講じやすくなる。・モデルの難読化
    • コードを難読化することで、クエリベースの攻撃やリバースエンジニアリングを困難にし、モデル抽出を防止する。
  • 動作の監視
    • AIモデルの実行状況を常時監視し、不審な挙動を早期に検知して対処する。
  • 電子透かしの付与
    • AIモデルのソースコードや訓練データにウオーターマーク(電子透かし)を埋め込むことで、盗難後の追跡を可能にする。

関連キーワード

人工知能 | 情報漏えい


Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る