「DeepSeek」の台頭で浮き彫りになったAIセキュリティの課題とは?:LLMのリスク管理を考える【後編】
中国発AI「DeepSeek」の台頭に伴い、LLMの安全性に対する懸念が浮上している。企業のCISOはこうした状況をどう受け止め、どのような対策を講じるべきなのか。
2025年1月末、中国製の生成AI「DeepSeek」が突如として登場し、人々の関心を集めた。一方で、その安全性について疑問が生じている。DeepSeekの台頭は、2025年におけるAIセキュリティについて重要な教訓をもたらした」と専門家は語る。この状況をどう捉えるべきなのか。
「DeepSeek」が浮き彫りにしたAIセキュリティの課題
併せて読みたいお薦め記事
連載:LLMのリスク管理を考える
AIのリスク管理にまつわる話題
2025年1月末、セキュリティベンダーPalo Alto Networksは同モデルから有害なコンテンツを引き出すことに成功したと発表した。その過程では「ジェイルブレーク」(脱獄)という手法が用いられたという。ジェイルブレークとは、大規模言語モデル(LLM)のセーフガード(安全対策)を回避し、本来生成すべきでない偏った内容や有害な出力を引き出すために、特定のプロンプトを巧妙に設計したり、脆弱(ぜいじゃく)性を悪用したりする手法を指す。
「LLMに完全なジェイルブレーク耐性を保証することは難しい」とPalo Alto Networksは認めている。一方で、エンドユーザー企業はある程度のリスク対策を講じることができる。例えば、未承認のサードパーティー製LLMの利用を監視したり、従業員がLLMをいつ、どのように使用しているか監視したりすることが挙げられる。
特定のAIモデルを導入するかどうかの決定は各企業の判断に委ねられている。全面的にAIモデルの使用を禁止する企業もあれば、限定的かつ厳重な制限付きで試験運用を許可する企業もあるだろう。業務効率化やコスト最適化を目指して、本番環境への導入を迅速に進める企業も存在する。
AI技術の進化スピードや、それを取り巻く切迫感は、他の技術とは比較にならない。Palo Alto Networksでネットワークセキュリティ担当シニアバイスプレジデントを務めるアナンド・オスワール氏は、「マイナーだったAIモデルが、突如として広く使用されるようになることもある状況で、事前に計画を立てるなど不可能だ」と語る。
オスワール氏によると、AIセキュリティのトレンドは常に変化を続けており、しばらくこの状況は続くという。DeepSeekのような無名のAIモデルが突然注目を集めるのはこれが最後ではないはずだ。「最高情報セキュリティ責任者(CISO)やセキュリティリーダーは、常に想定外の事態を考える姿勢を持つべきだ」と同氏は強調した。
Palo Alto Networksは、企業がLLMを適切に管理できるよう、明確なガバナンスの確立を推奨している。その一環として同社は、2024年には「Secure AI by Design」というツール群を発表。以下のような機能群を提供する。
- 使用状況の可視化
- どのLLMが、誰によって使用されているかをセキュリティチームがリアルタイムで把握する。
- 未承認アプリケーションのブロック
- 組織のセキュリティポリシーや保護策を適用し、無認可のアプリケーションをブロックする。
- 機密データの保護
- LLMによる不適切なデータアクセスを防止する。
Computer Weekly発 世界に学ぶIT導入・活用術
米国Informa TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.