「これを書いたのは人じゃない、ChatGPTだ」と断言できなくなる日「ChatGPT」が引き起こすセキュリティの新たな課題【第3回】

「ChatGPT」をはじめとするAIチャットbotが進化し、生成する文章に“人のような自然さ”に磨きが掛かると、いつしか人が書いた文章との見分けが付かなくなるのだろうか。専門家の見解を基に考察する。

2023年03月03日 10時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を使ったチャットbot)は、まるで人と対話をしているかのような体験を生み出す。こうした特徴を攻撃者が悪用すると、新たな脅威が生まれる可能性がある。

 今自分が読んでいる文章を書いたのは、AIチャットbotだったのか、それとも人だったのか――。AIチャットbotがどれだけ進化しても、人は両者を見分け続けることができるのだろうか。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏の見方は。

「これはAIが書いた記事だ」と見抜けなくなる日

―― ChatGPTをはじめとするAIチャットbotが書いた文章と、人が書いた文章を確実に見分けることはできるのでしょうか。

ウィスニエフスキー氏 見分けは難しくなってきている。少なくとも会話相手や文章の筆者が人なのかどうかの判断を、エンドユーザーに任せることは難しい。人はだまされ続ける。技術は進化しても、人の五感が急激に良くなることはない。人には“バージョン2.0”はあり得ないからだ。

 私たちは今、AI技術がもたらす変化のさなかにいる。Microsoftの音声合成モデル「Vall-E」が人の声になりすましたり、ChatGPTが驚くべき会話スキルを発揮したりすることが、既に現実に起きている。

 広告のコピーライティングなど、さまざまな文章作成へのChatGPTの活用が進むと「フィッシング(情報窃取のための詐欺行為)メールではなく本物のメール文章の筆者が、実はChatGPTだった」という状況が当たり前になる可能性がある。こうなるとChatGPTによる文章なのかどうかを、技術的に見分けるのは難しくなる。

 それでも人の判断を助ける技術を生み出すことは可能だ。まずは人に「これは何か変だ」と注意喚起できるように、ChatGPTが書いた文章を検出するプログラムの実装から始めるのがよいと考えている。


 次回は、AIチャットbotの悪用を防ぐセキュリティ対策の技術開発や法整備について、ウィスニエフスキー氏の見解を聞く。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ITmedia マーケティング新着記事

news132.jpg

ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。

news103.jpg

なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...

news160.jpg

業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...