「これを書いたのは人じゃない、ChatGPTだ」と断言できなくなる日「ChatGPT」が引き起こすセキュリティの新たな課題【第3回】

「ChatGPT」をはじめとするAIチャットbotが進化し、生成する文章に“人のような自然さ”に磨きが掛かると、いつしか人が書いた文章との見分けが付かなくなるのだろうか。専門家の見解を基に考察する。

2023年03月03日 10時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を使ったチャットbot)は、まるで人と対話をしているかのような体験を生み出す。こうした特徴を攻撃者が悪用すると、新たな脅威が生まれる可能性がある。

 今自分が読んでいる文章を書いたのは、AIチャットbotだったのか、それとも人だったのか――。AIチャットbotがどれだけ進化しても、人は両者を見分け続けることができるのだろうか。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏の見方は。

「これはAIが書いた記事だ」と見抜けなくなる日

―― ChatGPTをはじめとするAIチャットbotが書いた文章と、人が書いた文章を確実に見分けることはできるのでしょうか。

ウィスニエフスキー氏 見分けは難しくなってきている。少なくとも会話相手や文章の筆者が人なのかどうかの判断を、エンドユーザーに任せることは難しい。人はだまされ続ける。技術は進化しても、人の五感が急激に良くなることはない。人には“バージョン2.0”はあり得ないからだ。

 私たちは今、AI技術がもたらす変化のさなかにいる。Microsoftの音声合成モデル「Vall-E」が人の声になりすましたり、ChatGPTが驚くべき会話スキルを発揮したりすることが、既に現実に起きている。

 広告のコピーライティングなど、さまざまな文章作成へのChatGPTの活用が進むと「フィッシング(情報窃取のための詐欺行為)メールではなく本物のメール文章の筆者が、実はChatGPTだった」という状況が当たり前になる可能性がある。こうなるとChatGPTによる文章なのかどうかを、技術的に見分けるのは難しくなる。

 それでも人の判断を助ける技術を生み出すことは可能だ。まずは人に「これは何か変だ」と注意喚起できるように、ChatGPTが書いた文章を検出するプログラムの実装から始めるのがよいと考えている。


 次回は、AIチャットbotの悪用を防ぐセキュリティ対策の技術開発や法整備について、ウィスニエフスキー氏の見解を聞く。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news079.jpg

狙うは「銀髪経済」 中国でアクティブシニア事業を展開する企業とマイクロアドが合弁会社を設立
マイクロアドは中国の上海東犁と合弁会社を設立。中国ビジネスの拡大を狙う日本企業のプ...

news068.jpg

社会人1年目と2年目の意識調査2024 「出世したいと思わない」社会人1年生は44%、2年生は53%
ソニー生命保険が毎年実施している「社会人1年目と2年目の意識調査」の2024年版の結果です。

news202.jpg

KARTEに欲しい機能をAIの支援の下で開発 プレイドが「KARTE Craft」の一般提供を開始
サーバレスでKARTEに欲しい機能を、AIの支援の下で開発できる。