大規模言語モデル(LLM)を狙う脅威が目立ってきている。LLMを安全に利用するにはどうすればいいのか。LLMの「10大脅威」と、適切な保護策とは。
人工知能(AI)ベンダーOpenAIが開発する「GPT」シリーズをはじめ、大規模言語モデル(LLM)に基づいた生成AIツールの利用が広がりつつある。それに伴い、LLMを危険にさらす脅威が目立ってきている。ソフトウェアのセキュリティ向上を目的に活動する非営利組織Open Worldwide Application Security Project(OWASP)の見解を基に、LLMの「10大脅威」をまとめた。本稿はその後半を紹介する。
LLMを利用する場合、学習データや分析アルゴリズムなど、さまざまな機密情報を生成AIの出力から誤って公開してしまう可能性がある。組織は情報漏えいのリスクを認識し、データを扱う際に細心の注意を払わなければならない。情報漏えいのリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMを特定のタスクに最適化するために、プラグイン(拡張機能)を開発するケースが珍しくない。例えば、LLMがリアルタイムにインターネットや社内システムのデータにアクセスできるようにするためのプラグインがある。LLMプラグインの欠点はさまざまな攻撃に対して脆弱であることだ。攻撃者はLLMプラグインの脆弱性を悪用すれば、データ盗難や任意コードの実行、権限昇格といったことができる。安全でないプラグインによる攻撃のリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMに過剰な機能を持たせると、悪意ある行動や安全でない行動につながる“意図しない出力”が生成される可能性がある。過剰な機能によるリスクを軽減するためには、以下の対策が有効だと考えられる。
“人間の脆弱性”の一つとして、LLMに対する過度な信頼がある。過度な信頼とは、自分で考えることなく、LLMの回答をそのまま信じてしまうことだ。LLMは不正確な回答や不正な回答を出力する可能性がある。そのため、過度な信頼はさまざまなセキュリティリスクを生み出しかねない。
例えば、LLMが生成したソフトウェアのソースコードに脆弱性が含まれる可能性がある。安全性を確認することなくコードをそのままソフトウェアに組み込めば、攻撃のリスクが高まる。LLMを過度に信頼することで発生するリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMそのものの盗難もあり得る。この場合、攻撃者はLLMのファイルを不正入手してLLMを複製した上で、攻撃側にとって有利になるように利用したり、LLM内の機密情報を盗んだりする。LLM盗難のリスクを軽減するためには、以下の対策が有効だと考えられる。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...