大規模言語モデル(LLM)を狙う脅威が目立ってきている。LLMを安全に利用するにはどうすればいいのか。LLMの「10大脅威」と、適切な保護策とは。
人工知能(AI)ベンダーOpenAIが開発する「GPT」シリーズをはじめ、大規模言語モデル(LLM)に基づいた生成AIツールの利用が広がりつつある。それに伴い、LLMを危険にさらす脅威が目立ってきている。ソフトウェアのセキュリティ向上を目的に活動する非営利組織Open Worldwide Application Security Project(OWASP)の見解を基に、LLMの「10大脅威」をまとめた。本稿はその後半を紹介する。
LLMを利用する場合、学習データや分析アルゴリズムなど、さまざまな機密情報を生成AIの出力から誤って公開してしまう可能性がある。組織は情報漏えいのリスクを認識し、データを扱う際に細心の注意を払わなければならない。情報漏えいのリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMを特定のタスクに最適化するために、プラグイン(拡張機能)を開発するケースが珍しくない。例えば、LLMがリアルタイムにインターネットや社内システムのデータにアクセスできるようにするためのプラグインがある。LLMプラグインの欠点はさまざまな攻撃に対して脆弱であることだ。攻撃者はLLMプラグインの脆弱性を悪用すれば、データ盗難や任意コードの実行、権限昇格といったことができる。安全でないプラグインによる攻撃のリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMに過剰な機能を持たせると、悪意ある行動や安全でない行動につながる“意図しない出力”が生成される可能性がある。過剰な機能によるリスクを軽減するためには、以下の対策が有効だと考えられる。
“人間の脆弱性”の一つとして、LLMに対する過度な信頼がある。過度な信頼とは、自分で考えることなく、LLMの回答をそのまま信じてしまうことだ。LLMは不正確な回答や不正な回答を出力する可能性がある。そのため、過度な信頼はさまざまなセキュリティリスクを生み出しかねない。
例えば、LLMが生成したソフトウェアのソースコードに脆弱性が含まれる可能性がある。安全性を確認することなくコードをそのままソフトウェアに組み込めば、攻撃のリスクが高まる。LLMを過度に信頼することで発生するリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMそのものの盗難もあり得る。この場合、攻撃者はLLMのファイルを不正入手してLLMを複製した上で、攻撃側にとって有利になるように利用したり、LLM内の機密情報を盗んだりする。LLM盗難のリスクを軽減するためには、以下の対策が有効だと考えられる。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
Googleの独占市場が崩壊? 迫られるChrome事業分割がもたらす未来のシナリオ
本記事では、GoogleがChrome事業を分割した後の世界がどのようなものになるのか、そして...
ノンアルクラフトビールが急成長! 米新興ブランドのCMOはなぜ「大手の市場参入を歓迎」するのか?
Athletic BrewingでCMOを務めるアンドリュー・カッツ氏は、大手企業がノンアルコールビー...
博報堂が提唱 AIエージェントとの対話を起点とした新たな購買行動モデル「DREAM」とは?
博報堂買物研究所が2025年の購買体験を予測する「買物フォーキャスト2025」を発表し、AI...