大規模言語モデル(LLM)を狙う脅威が目立ってきている。LLMを安全に利用するにはどうすればいいのか。LLMの「10大脅威」と、適切な保護策とは。
人工知能(AI)ベンダーOpenAIが開発する「GPT」シリーズをはじめ、大規模言語モデル(LLM)に基づいた生成AIツールの利用が広がりつつある。それに伴い、LLMを危険にさらす脅威が目立ってきている。ソフトウェアのセキュリティ向上を目的に活動する非営利組織Open Worldwide Application Security Project(OWASP)の見解を基に、LLMの「10大脅威」をまとめた。本稿はその後半を紹介する。
LLMを利用する場合、学習データや分析アルゴリズムなど、さまざまな機密情報を生成AIの出力から誤って公開してしまう可能性がある。組織は情報漏えいのリスクを認識し、データを扱う際に細心の注意を払わなければならない。情報漏えいのリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMを特定のタスクに最適化するために、プラグイン(拡張機能)を開発するケースが珍しくない。例えば、LLMがリアルタイムにインターネットや社内システムのデータにアクセスできるようにするためのプラグインがある。LLMプラグインの欠点はさまざまな攻撃に対して脆弱であることだ。攻撃者はLLMプラグインの脆弱性を悪用すれば、データ盗難や任意コードの実行、権限昇格といったことができる。安全でないプラグインによる攻撃のリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMに過剰な機能を持たせると、悪意ある行動や安全でない行動につながる“意図しない出力”が生成される可能性がある。過剰な機能によるリスクを軽減するためには、以下の対策が有効だと考えられる。
“人間の脆弱性”の一つとして、LLMに対する過度な信頼がある。過度な信頼とは、自分で考えることなく、LLMの回答をそのまま信じてしまうことだ。LLMは不正確な回答や不正な回答を出力する可能性がある。そのため、過度な信頼はさまざまなセキュリティリスクを生み出しかねない。
例えば、LLMが生成したソフトウェアのソースコードに脆弱性が含まれる可能性がある。安全性を確認することなくコードをそのままソフトウェアに組み込めば、攻撃のリスクが高まる。LLMを過度に信頼することで発生するリスクを軽減するためには、以下の対策が有効だと考えられる。
LLMそのものの盗難もあり得る。この場合、攻撃者はLLMのファイルを不正入手してLLMを複製した上で、攻撃側にとって有利になるように利用したり、LLM内の機密情報を盗んだりする。LLM盗難のリスクを軽減するためには、以下の対策が有効だと考えられる。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
マーケティング責任者が「サステナビリティー」担当を兼任 ネスプレッソの真意は?
Nespresso USAのジェシカ・パデューラ氏は「Advertising Week New York」においてブラン...
Web広告担当者を悩ませるMFA モバイルアプリで増殖しないのはなぜ?
オープンWebで大きな問題となっているMFA(Made ForAdvertising)はモバイルアプリにおい...
「Shufoo!」の来店データを活用した広告運用サービス TOPPANグループのONE COMPATHが本格展開
「Shufoo!」の来店データを活用した店舗販促特化型の広告運用と、施策効果の詳細分析によ...