生成AIの利用が広がる中、大規模言語モデル(LLM)を狙った攻撃も活発になりつつある。NVIDIAの研究者が生成AIの“2大脅威”について語った。生成AIを安全に使うために知っておきたい点とは。
生成AI(人工知能)ツールの中核技術である大規模言語モデル(LLM)を巡り、さまざまなセキュリティリスクが指摘されている。2024年8月に米ラスベガスで開催された年次セキュリティカンファレンス「Black Hat USA 2024」で、NVIDIAの主席AI・ML(機械学習)セキュリティアーキテクト、リチャード・ハラング氏はLLMの脅威を説明した。同氏が注意を呼び掛ける、LLMを狙った「2大攻撃手法」とは何か。
ハラング氏はLLMを狙った攻撃手法の一つとして、「間接プロンプトインジェクション」を挙げた。この攻撃手法では攻撃者がサードパーティー(第三者)を踏み台にし、悪意のあるコンテンツをLLMのデータベースに挿入。LLMに不正回答をさせる。最近、社内のデータや外部情報の検索結果を組み合わせて生成AIの回答を生成する「RAG」(Retrieval Augmented Generation:検索拡張生成)の活用が広がっている。ハラング氏によると、RAGの実装は間接プロンプトインジェクション攻撃を受けやすくなる一因となる。
間接プロンプトインジェクションとは別に、「ジェイルブレーク」(脱獄)がある。ジェイルブレーク攻撃では、攻撃者が直接LLMに入り込んでLLMに不正回答をさせる。それに対し、間接プロンプトインジェクション攻撃ではサードパーティーの情報が改変されるので、LLMに入り込む必要はない。そのため、間接プロンプトインジェクション攻撃はジェイルブレーク攻撃より実施しやすいと考えられる。
ハラング氏によると、LLMのもう一つの脅威はプラグインの脆弱(ぜいじゃく)性だ。プラグインは、LLMの機能を拡張するための追加モジュールだ。大半のLLMは“過去の情報”を使用して回答を生成するが、プラグインを使えば新しい情報も取り入れた回答を生成することが可能になる。ただしプラグインには、ソースコードの欠陥などによる脆弱性が存在する可能性がある。ハラング氏は「攻撃者がプラグインの脆弱性を悪用してLLMに入り込む攻撃が想定される」と警鐘を鳴らす。
プラグインの脆弱性を悪用した攻撃を防ぐために、ハラング氏は「LLMへのアクセス制御をはじめ、他のソフトウェアと同様のセキュリティ対策が有効だ」と述べる。組織はLLMを他のシステムから隔離し、独自の認証の仕組みを構築することも重要だという。それに加えて、「プラグインで取り込む情報を検証し、安全だと判断した情報のみを分析に使うようにすることが推奨される」と同氏は説明する。
米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。
インフルエンサー×タテ型動画広告の効果を最大化 電通デジタルが「ヒト×タテMarketing framework」を提供
電通デジタルは、インフルエンサーを起用したタテ型動画広告施策において、企画から実行...
NIKE vs. HOKA ランニングシューズ市場での熱い戦いの行方は?(無料eBook)
市場リーダーのナイキやアディダスの業績が振るわない一方で、「HOKA」など新興ブランド...
「ECプラットフォーム」売れ筋TOP10(2024年10月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。