「大規模言語モデル」(LLM)が犯罪さえも根幹から変えてしまう脅威ChatGPTが犯罪に使われるリスク【前編】

ユーロポール(欧州刑事警察機構)は、「ChatGPT」が基礎にしているような「LLM」を犯罪者が悪用した場合の危険性について、法執行機関に勧告した。どのようなリスクが考えられるのか。

2023年06月09日 07時15分 公開
[Alex ScroxtonTechTarget]

関連キーワード

人工知能


 ユーロポール(欧州刑事警察機構)のイノベーションラボは、2023年3月に「ChatGPT - the impact of Large Language Models on Law Enforcement」という報告書を公開。大規模言語モデル(LLM)が犯罪発生状況に与えるプラスとマイナスの影響について法執行機関に勧告した。

 この報告書は、サイバー犯罪者に限らず犯罪者全般がLLMをどう悪用するのか、将来LLMは捜査当局にどう役立つのかといった可能性を探るために、さまざまな研究や専門家の知見をまとめている。LLMが悪用されることで起こり得るリスクとはどのようなものか。

犯罪者なら「もっともらしい文章」を生成するLLMをどう悪用するのか

 ユーロポールはこの報告書の目的について、「LLMが悪用される可能性についての認識を高め、AI(人工知能)ベンダーが安全性を高める施策に取り組むことを支援し、安全で信頼できるAIシステムの開発を促進すること」と説明する。

 本報告書では、LLMのようなAI技術が犯罪者に悪用される可能性について悲観的な見解を示し、以下3つの懸念事項を指摘した。

  1. LLMは言語パターンを再現し、特定の個人やグループのスタイルをまねてなりすますことができる。効果的なフィッシング詐欺用の文章を作成する目的でLLMを使えば、リアリティーのある文章を大量に、大規模に生成できる。
  2. LLMはもっともらしいテキストを高速かつ大規模に作成できる。そのためプロパガンダや偽情報の作成に適している。
  3. LLMはさまざまなプログラミング言語で、使用可能なソースコードを生成する能力がある。この能力は、新しいマルウェアやランサムウェア(身代金要求型マルウェア)を作成するツールとして、サイバー犯罪者に使用される可能性がある。現時点のサイバーセキュリティコミュニティーでは、LLMが影響を及ぼすようになるのはもう少し先のことになると考えられているが、技術の発展とともに状況は変わる可能性がある。

 中編はユーロポールが報告書で指摘した「LLMの犯罪利用に備えて法執行機関が考慮すべきこと」について解説する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news054.jpg

「Threads」が月間アクティブユーザー1億5000万人を突破 今後Xを追い抜くための最善策は?
Metaはイーロン・マスク氏率いるTwitter(当時)の対抗馬として2023年7月にリリースした...

news060.jpg

Z世代が考える「日本が最も力を入れて取り組むべき課題」1位は「ジェンダー平等」――SHIBUYA109 lab.調査
SDGsで挙げられている17の目標のうち、Z世代が考える「日本が最も力を入れて取り組むべき...

news061.png

高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...