「これを書いたのは人じゃない、ChatGPTだ」と断言できなくなる日「ChatGPT」が引き起こすセキュリティの新たな課題【第3回】

「ChatGPT」をはじめとするAIチャットbotが進化し、生成する文章に“人のような自然さ”に磨きが掛かると、いつしか人が書いた文章との見分けが付かなくなるのだろうか。専門家の見解を基に考察する。

2023年03月03日 10時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を使ったチャットbot)は、まるで人と対話をしているかのような体験を生み出す。こうした特徴を攻撃者が悪用すると、新たな脅威が生まれる可能性がある。

 今自分が読んでいる文章を書いたのは、AIチャットbotだったのか、それとも人だったのか――。AIチャットbotがどれだけ進化しても、人は両者を見分け続けることができるのだろうか。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏の見方は。

「これはAIが書いた記事だ」と見抜けなくなる日

―― ChatGPTをはじめとするAIチャットbotが書いた文章と、人が書いた文章を確実に見分けることはできるのでしょうか。

ウィスニエフスキー氏 見分けは難しくなってきている。少なくとも会話相手や文章の筆者が人なのかどうかの判断を、エンドユーザーに任せることは難しい。人はだまされ続ける。技術は進化しても、人の五感が急激に良くなることはない。人には“バージョン2.0”はあり得ないからだ。

 私たちは今、AI技術がもたらす変化のさなかにいる。Microsoftの音声合成モデル「Vall-E」が人の声になりすましたり、ChatGPTが驚くべき会話スキルを発揮したりすることが、既に現実に起きている。

 広告のコピーライティングなど、さまざまな文章作成へのChatGPTの活用が進むと「フィッシング(情報窃取のための詐欺行為)メールではなく本物のメール文章の筆者が、実はChatGPTだった」という状況が当たり前になる可能性がある。こうなるとChatGPTによる文章なのかどうかを、技術的に見分けるのは難しくなる。

 それでも人の判断を助ける技術を生み出すことは可能だ。まずは人に「これは何か変だ」と注意喚起できるように、ChatGPTが書いた文章を検出するプログラムの実装から始めるのがよいと考えている。


 次回は、AIチャットbotの悪用を防ぐセキュリティ対策の技術開発や法整備について、ウィスニエフスキー氏の見解を聞く。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news061.png

高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...

news193.jpg

IASがブランドセーフティーの計測を拡張 誤報に関するレポートを追加
IASは、ブランドセーフティーと適合性の計測ソリューションを拡張し、誤報とともに広告が...

news047.png

【Googleが公式見解を発表】中古ドメインを絶対に使ってはいけない理由とは?
Googleが中古ドメインの不正利用を禁止を公式に発表しました。その理由や今後の対応につ...