「これを書いたのは人じゃない、ChatGPTだ」と断言できなくなる日「ChatGPT」が引き起こすセキュリティの新たな課題【第3回】

「ChatGPT」をはじめとするAIチャットbotが進化し、生成する文章に“人のような自然さ”に磨きが掛かると、いつしか人が書いた文章との見分けが付かなくなるのだろうか。専門家の見解を基に考察する。

2023年03月03日 10時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を使ったチャットbot)は、まるで人と対話をしているかのような体験を生み出す。こうした特徴を攻撃者が悪用すると、新たな脅威が生まれる可能性がある。

 今自分が読んでいる文章を書いたのは、AIチャットbotだったのか、それとも人だったのか――。AIチャットbotがどれだけ進化しても、人は両者を見分け続けることができるのだろうか。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏の見方は。

「これはAIが書いた記事だ」と見抜けなくなる日

―― ChatGPTをはじめとするAIチャットbotが書いた文章と、人が書いた文章を確実に見分けることはできるのでしょうか。

ウィスニエフスキー氏 見分けは難しくなってきている。少なくとも会話相手や文章の筆者が人なのかどうかの判断を、エンドユーザーに任せることは難しい。人はだまされ続ける。技術は進化しても、人の五感が急激に良くなることはない。人には“バージョン2.0”はあり得ないからだ。

 私たちは今、AI技術がもたらす変化のさなかにいる。Microsoftの音声合成モデル「Vall-E」が人の声になりすましたり、ChatGPTが驚くべき会話スキルを発揮したりすることが、既に現実に起きている。

 広告のコピーライティングなど、さまざまな文章作成へのChatGPTの活用が進むと「フィッシング(情報窃取のための詐欺行為)メールではなく本物のメール文章の筆者が、実はChatGPTだった」という状況が当たり前になる可能性がある。こうなるとChatGPTによる文章なのかどうかを、技術的に見分けるのは難しくなる。

 それでも人の判断を助ける技術を生み出すことは可能だ。まずは人に「これは何か変だ」と注意喚起できるように、ChatGPTが書いた文章を検出するプログラムの実装から始めるのがよいと考えている。


 次回は、AIチャットbotの悪用を防ぐセキュリティ対策の技術開発や法整備について、ウィスニエフスキー氏の見解を聞く。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news035.jpg

低迷するナイキやアディダスを猛追する「HOKA」の “破壊的”ブランディングとは?
ランナーの間で好感度が低迷しているNikeに対し、ディスラプター(破壊的企業)として取...

news051.jpg

新紙幣の発行、3社に1社が日本経済に「プラスの影響」と回答――帝国データバンク調査
20年ぶりの新紙幣発行は日本経済にどのような影響を及ぼすのでしょうか。帝国データバン...

news196.png

WPPとIBMが生成AIを活用したB2Bマーケティング領域で連携
IBMのビジネス向けAIおよびデータプラットフォームである「watsonx」の機能を「WPP Open...