大規模言語モデル(LLM)を狙う脅威が目立ってきている。LLMを安全に利用するにはどうすればいいのか。LLMの「10大脅威」と、適切な保護策とは。
人工知能(AI)ベンダーOpenAIが開発する「GPT」シリーズをはじめ、大規模言語モデル(LLM)に基づいた生成AIツールの利用が広がりつつある。それに伴い、LLMを危険にさらす脅威が目立ってきている。ソフトウェアのセキュリティ向上を目的に活動する非営利組織Open Worldwide Application Security Project(OWASP)の見解を基に、LLMの「10大脅威」をまとめた。本稿はその後半を紹介する。
LLMを利用する場合、学習データや分析アルゴリズムなど、さまざまな機密情報を生成AIの出力から誤って公開してしまう可能性がある。組織は情報漏えいのリスクを認識し、データを扱う際に細心の注意を払わなければならない。情報漏えいのリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMを特定のタスクに最適化するために、プラグイン(拡張機能)を開発するケースが珍しくない。例えば、LLMがリアルタイムにインターネットや社内システムのデータにアクセスできるようにするためのプラグインがある。LLMプラグインの欠点はさまざまな攻撃に対して脆弱であることだ。攻撃者はLLMプラグインの脆弱性を悪用すれば、データ盗難や任意コードの実行、権限昇格といったことができる。安全でないプラグインによる攻撃のリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMに過剰な機能を持たせると、悪意ある行動や安全でない行動につながる“意図しない出力”が生成される可能性がある。過剰な機能によるリスクを軽減するためには、以下の対策が有効だと考えられる。
“人間の脆弱性”の一つとして、LLMに対する過度な信頼がある。過度な信頼とは、自分で考えることなく、LLMの回答をそのまま信じてしまうことだ。LLMは不正確な回答や不正な回答を出力する可能性がある。そのため、過度な信頼はさまざまなセキュリティリスクを生み出しかねない。
例えば、LLMが生成したソフトウェアのソースコードに脆弱性が含まれる可能性がある。安全性を確認することなくコードをそのままソフトウェアに組み込めば、攻撃のリスクが高まる。LLMを過度に信頼することで発生するリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMそのものの盗難もあり得る。この場合、攻撃者はLLMのファイルを不正入手してLLMを複製した上で、攻撃側にとって有利になるように利用したり、LLM内の機密情報を盗んだりする。LLM盗難のリスクを軽減するためには、以下の対策が有効だと考えられる。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
「ECプラットフォーム」売れ筋TOP10(2025年4月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。
「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年4月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...
Cookieを超える「マルチリターゲティング」 広告効果に及ぼす影響は?
Cookieレスの課題解決の鍵となる「マルチリターゲティング」を題材に、AI技術によるROI向...