検索
特集/連載

「ChatGPTを使った犯罪」には「LLM」で備えよ――ユーロポール5つの提言ChatGPTが犯罪に使われるリスク【中編】

ユーロポール(欧州刑事警察機構)は、「ChatGPT」の中核要素である「大規模言語モデル」(LLM)が犯罪で悪用される可能性について検証。法執行機関が対策すべき具体的な指針を提言した。どういうことか。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能


 ユーロポール(欧州刑事警察機構)のイノベーションラボは、2023年3月に発表した「ChatGPT - the impact of Large Language Models on Law Enforcement」という報告書の中で、AI(人工知能)チャットbot「ChatGPT」の中核要素である大規模言語モデル(LLM)が犯罪者に悪用される可能性について検証。想定し得るリスクに対して備えるよう、法執行機関に勧告した。LLMが犯罪で悪用される可能性を視野に入れ、法執行機関が考慮すべきこととは何か。

「AI技術が犯罪に使われる日」に備え、警察はどう対策すべきなのか

 報告書の中で、ユーロポールは法執行機関に向けて次のように提言する。

  • LLMが悪用される可能性がある以上、犯罪目的で使用される抜け穴を見つけ、確実に防ぐ必要がある。
  • 警察はデジタル犯罪だけでなく、影響がありそうなあらゆる犯罪分野を想定してLLMが及ぼす影響を理解し、予測し、犯罪の防止や調査をする必要がある。
  • LLMを最大限に活用するために必要なスキルを組織内で開発、育成すべきだ。これにより、知識の構築と既存の専門知識の拡大を促し、LLMで適切な受け答えを引き出す方法を理解できるようになる。警察官は、LLMが作成したコンテンツの正確性や偏りを評価するための訓練が必要だ。
  • 警察は外部の技術部門と連携して、LLMを応用した技術を開発する際に安全対策を考慮し、改善プロセスを継続的に実施できるようにする必要がある。
  • 警察は、自組織の独自データでトレーニングし、カスタマイズした「プライベートLLM」の活用を検討する。ただし、プライベートLLM利用には倫理的な検討が必要だ。警察官によるLLMの悪用を防ぐために、新たなプロセスや安全措置を導入する必要がある。

 後編は、ユーロポールの勧告に対するサイバーセキュリティ専門家の見解を紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る