「これを書いたのは人じゃない、ChatGPTだ」と断言できなくなる日「ChatGPT」が引き起こすセキュリティの新たな課題【第3回】

「ChatGPT」をはじめとするAIチャットbotが進化し、生成する文章に“人のような自然さ”に磨きが掛かると、いつしか人が書いた文章との見分けが付かなくなるのだろうか。専門家の見解を基に考察する。

2023年03月03日 10時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を使ったチャットbot)は、まるで人と対話をしているかのような体験を生み出す。こうした特徴を攻撃者が悪用すると、新たな脅威が生まれる可能性がある。

 今自分が読んでいる文章を書いたのは、AIチャットbotだったのか、それとも人だったのか――。AIチャットbotがどれだけ進化しても、人は両者を見分け続けることができるのだろうか。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏の見方は。

「これはAIが書いた記事だ」と見抜けなくなる日

―― ChatGPTをはじめとするAIチャットbotが書いた文章と、人が書いた文章を確実に見分けることはできるのでしょうか。

ウィスニエフスキー氏 見分けは難しくなってきている。少なくとも会話相手や文章の筆者が人なのかどうかの判断を、エンドユーザーに任せることは難しい。人はだまされ続ける。技術は進化しても、人の五感が急激に良くなることはない。人には“バージョン2.0”はあり得ないからだ。

 私たちは今、AI技術がもたらす変化のさなかにいる。Microsoftの音声合成モデル「Vall-E」が人の声になりすましたり、ChatGPTが驚くべき会話スキルを発揮したりすることが、既に現実に起きている。

 広告のコピーライティングなど、さまざまな文章作成へのChatGPTの活用が進むと「フィッシング(情報窃取のための詐欺行為)メールではなく本物のメール文章の筆者が、実はChatGPTだった」という状況が当たり前になる可能性がある。こうなるとChatGPTによる文章なのかどうかを、技術的に見分けるのは難しくなる。

 それでも人の判断を助ける技術を生み出すことは可能だ。まずは人に「これは何か変だ」と注意喚起できるように、ChatGPTが書いた文章を検出するプログラムの実装から始めるのがよいと考えている。


 次回は、AIチャットbotの悪用を防ぐセキュリティ対策の技術開発や法整備について、ウィスニエフスキー氏の見解を聞く。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

From Informa TechTarget

お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。

ITmedia マーケティング新着記事

news199.jpg

Yahoo!広告における脱デモグラフィックの配信・分析を実現 電通が「DESIRE Targeting」を提供開始
電通の消費者研究プロジェクトチームは、消費者を理解し、Yahoo!広告の配信や分析を実施...

news132.jpg

生成AIを業務で使わないマーケターはもはや3割以下 御社はどうする?
HubSpot Japanが日本で実施した調査によると、日本のマーケターの8割以上が従来のマーケ...

news168.jpg

新富裕層の攻略法 「インカムリッチ」の財布のひもを緩めるマーケティングとは?
パワーカップルの出現などでこれまでとは異なる富裕層が生まれつつあります。今回の無料e...