検索
特集/連載

ChatGPTが悪用されて「見破れない詐欺メール」が続出する未来ChatGPTが犯罪に使われるリスク【後編】

ユーロポール(欧州刑事警察機構)が、「ChatGPT」の中核要素である大規模言語モデル(LLM)が犯罪で悪用される可能性について勧告。これを受け、専門家は「ChatGPTが悪用されるリスク」をどう見るか。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能


 OpenAIの「ChatGPT」やGoogleの「Bard」など、大規模言語モデル(LLM)を利用したAI(人工知能)チャットbotが急速に普及している。この状況を受けてユーロポール(欧州刑事警察機構)は、LLMが犯罪者に悪用される可能性を検証した報告書「ChatGPT - the impact of Large Language Models on Law Enforcement」を2023年3月に公開。法執行機関に対処を促した。サイバーセキュリティの専門家は、ユーロポールの勧告をどう受け止め、サイバー犯罪の今後をどうみるのか。

ChatGPTが悪用されれば、詐欺メールはもう見分けられない

 アクセス管理ツールベンダーMyCena(Mycena Security Solutionsの名称で事業展開)のCEO、ジュリア・オトゥール氏は「ユーロポールがChatGPTに関連したリスクを警告したのは驚くべきことではない」と語る。犯罪者から見れば、ChatGPTはフィッシング詐欺の世界を改革するツールと言える。

 ChatGPTを使用すると、言語や文化の壁がなくなる。犯罪者はChatGPTを使って、組織やイベント、協力企業に関する情報を驚異的なスピードで収集できるようになる。その情報を基に、犯罪者はChatGPTを使って信ぴょう性のある詐欺メールを作成できる。銀行、CEO、取引先をかたる偽物からメールを受け取ったとき、そのメールが偽物であることを示す「文章の不自然さ」はほとんど感じられないはずだ。

 オトゥール氏はこう強調する。「ChatGPTが生成したフィッシングメールを見破るのは非常に困難だ。だからこそ危険なのだ。銀行振り込みをすべき理由を読んでも、文面からこのメールが詐欺であることを示唆するものがないのだから」

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る