ChatGPTの「まるで人」の自然さが生み出してしまった“次世代の脅威”とは?「ChatGPT」が引き起こすセキュリティの新たな課題【第2回】

攻撃者が「ChatGPT」を悪用すると、サイバー攻撃に対するこれまでの対処法が通用しなくなる可能性があると、専門家は指摘する。こうした“次世代の脅威”の正体とは何なのか。

2023年02月27日 10時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIが手掛ける「ChatGPT」は、自然な対話が可能なAIチャットbot(AI技術を活用したチャットbot)だ。企業の間では、新たな情報収集・発信の手段として活用を模索する動きがある一方で、攻撃者もChatGPTの可能性を注視し始めている。

ChatGPTの「人っぽさ」が生む“次世代の脅威”の正体

 攻撃者は具体的に、どのような可能性をChatGPTに見いだしているのか。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏に聞いた。

ウィスニエフスキー氏 影響が大きいと考えているのが、ChatGPTの社会的な可能性だ。社会的な可能性とは、いかに自然に会話ができるか、いかに上手に文章が書けるか、といったことを指す。

 あるユーザー企業の話で、印象深かったことがある。メールボックスに届いたフィッシング(情報窃取のための詐欺行為)メールを見破る際に、スペルや文法の不自然さに注目していたことだ。

 フィッシングメールの文章を書く人は、概して米国人ではない。そのため米国人にとって自然な英語の文章を書くことが難しく、うまく人をだませないことがある。「Color」(色)という単語の中に不自然に「u」が入っていたり、「Organization」(組織)の「z」が「s」になっていたりすると、米国人なら気になる文章になってしまう。

 ChatGPTにメールの文章を書かせてみると、少なくともフィッシングメールの文章よりも、はるかに自然な文章を書く。私はChatGPTの社会的な可能性を、攻撃者がどう利用するのかを注視している。ChatGPTを使えば、巧妙な文章を書くスキルがなくても、特定の企業や個人になりすますことが非常に簡単にできてしまう可能性があるからだ。


 次回は、ChatGPTなどのAIチャットbotが生み出した文章と、人の文章を見分けることができるのかどうかについて、ウィスニエフスキー氏の見解を聞く。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ITmedia マーケティング新着記事

news170.jpg

AIの進化が加速する「プラットフォームビジネス」とは?
マーケットプレイス構築を支援するMiraklが日本で初のイベントを開催し、新たな成長戦略...

news029.png

「マーケティングオートメーション」 国内売れ筋TOP10(2024年12月)
今週は、マーケティングオートメーション(MA)ツールの売れ筋TOP10を紹介します。

news166.png

2024年の消費者購買行動変化 「日本酒」に注目してみると……
2023年と比較して2024年の消費者の購買行動にはどのような変化があったのか。カタリナマ...