AI技術が急速に進化する一方で、深刻化しているのがAIモデルの盗難リスクだ。企業にとって重要な知的財産であるAIモデルが盗まれると、機密情報の漏えいや風評被害など甚大な影響が及ぶ可能性がある。
AI(人工知能)技術は企業や政府の在り方を根本から変える存在として期待され、巨額の投資がAI分野に集中している。AI技術を次の収益源として目当てにしているのは企業だけではない。脅威グループも既に独自のAIシステムを構築し、企業が独自に構築したAIシステムや機密データを盗む手法を確立しつつある。そうしたAI技術を活用した脅威に対して、企業の防御体制はまだ十分とは言えない。
AIモデルはAIシステムの基盤を成す要素だ。特定のアルゴリズムを活用することで、人間の指示なしに意思決定を行ってタスクを実行することが可能になる。そうしたAIモデルを独自に開発するのに多大な時間とコストを要するため、「AIモデルの盗難」は最も深刻な脅威の一つだと言える。ここでいう盗難とは、AIモデルに対する不正アクセスや無断複製、あるいはリバースエンジニアリング(解析による設計情報の逆算)を指す。攻撃者がAIモデルのパラメーターやアーキテクチャを入手すれば、その情報を基にオリジナルAIモデルの複製ができるだけでなく、訓練に使われた貴重なデータの一部を抽出できてしまう可能性もある。
AIモデルが盗まれると、企業に甚大な影響を及ぼす恐れがある。例えば、次のような事態が想定される。
「AIモデルの盗難」と「モデル抽出」という用語は、ほぼ同義で用いられる。モデル抽出とは、攻撃者がAIシステムに対して巧妙に設計したプロンプト(質問文)を投げ掛けることで、AIモデルのパラメーターやアーキテクチャに関する情報を引き出す手法だ。
このような攻撃が成功すると、元のAIモデルをリバースエンジニアリングし、模倣モデル(シャドーモデル)を作成できてしまう。「モデル反転攻撃」もある。これは、モデル抽出と同様にクエリベースで実行される攻撃手法で、AIモデルの訓練に使用された元データの一部を復元することを目的としている。
AIモデル盗難の派生的な手口として「モデルの不正再公開」がある。これは、攻撃者が公開済み、あるいは盗み出したAIモデルを無断でコピーし、自分たちの目的に合わせて再訓練する手法だ。中には、意図的に悪意ある動作をさせるようにモデルを作り変えるケースもある。
AIモデルの窃取を狙う攻撃者は、AIシステムの挙動を詳しく把握するために、実行時間や電力消費、音波といった動作情報を解析する「サイドチャネル攻撃」のような手法を用いることもある。悪意を持った内部関係者や、設定ミス、パッチ未適用のソフトウェアの脆弱(ぜいじゃく)性といった古典的なサイバー脅威が、結果的にAIモデルを外部の攻撃者にさらす原因になることもある。
AIモデルの盗難を防ぎ、被害を最小限に抑えるために、アプリケーションのセキュリティ向上を目的とした国際団体OWASP(Open Worldwide Application Security Project)は、次のようなセキュリティ対策の実施を推奨している。
Copyright © ITmedia, Inc. All Rights Reserved.
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...