検索
特集/連載

ChatGPTの「まるで人」の自然さが生み出してしまった“次世代の脅威”とは?「ChatGPT」が引き起こすセキュリティの新たな課題【第2回】

攻撃者が「ChatGPT」を悪用すると、サイバー攻撃に対するこれまでの対処法が通用しなくなる可能性があると、専門家は指摘する。こうした“次世代の脅威”の正体とは何なのか。

Share
Tweet
LINE
Hatena

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIが手掛ける「ChatGPT」は、自然な対話が可能なAIチャットbot(AI技術を活用したチャットbot)だ。企業の間では、新たな情報収集・発信の手段として活用を模索する動きがある一方で、攻撃者もChatGPTの可能性を注視し始めている。

ChatGPTの「人っぽさ」が生む“次世代の脅威”の正体

 攻撃者は具体的に、どのような可能性をChatGPTに見いだしているのか。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏に聞いた。

ウィスニエフスキー氏 影響が大きいと考えているのが、ChatGPTの社会的な可能性だ。社会的な可能性とは、いかに自然に会話ができるか、いかに上手に文章が書けるか、といったことを指す。

 あるユーザー企業の話で、印象深かったことがある。メールボックスに届いたフィッシング(情報窃取のための詐欺行為)メールを見破る際に、スペルや文法の不自然さに注目していたことだ。

 フィッシングメールの文章を書く人は、概して米国人ではない。そのため米国人にとって自然な英語の文章を書くことが難しく、うまく人をだませないことがある。「Color」(色)という単語の中に不自然に「u」が入っていたり、「Organization」(組織)の「z」が「s」になっていたりすると、米国人なら気になる文章になってしまう。

 ChatGPTにメールの文章を書かせてみると、少なくともフィッシングメールの文章よりも、はるかに自然な文章を書く。私はChatGPTの社会的な可能性を、攻撃者がどう利用するのかを注視している。ChatGPTを使えば、巧妙な文章を書くスキルがなくても、特定の企業や個人になりすますことが非常に簡単にできてしまう可能性があるからだ。


 次回は、ChatGPTなどのAIチャットbotが生み出した文章と、人の文章を見分けることができるのかどうかについて、ウィスニエフスキー氏の見解を聞く。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る