ChatGPT規制派を黙らせる「もう後戻りできないAI依存」の現実「ChatGPT」が引き起こすセキュリティの新たな課題【第4回】

フィッシングなどの犯罪への悪用を指摘する声がある、「ChatGPT」をはじめとするAIチャットbot。その悪用を防ぐための技術や法律には、どこまで期待できるのか。専門家の見方は。

2023年04月22日 13時00分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を活用したチャットbot)を、攻撃者がフィッシング(情報窃取を目的とした詐欺行為)メールの作成に悪用する恐れがある――。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、こう指摘する。

 AIチャットbotの悪用に対処するために、セキュリティ対策の技術開発や法整備が進む可能性がある。ウィスニエフスキー氏は技術開発には期待を寄せるものの、法整備の実効性には否定的な見解を示す。それはなぜなのか。同氏に考えを聞いた。

だから“ChatGPT悪用禁止法”は意味がない

―― フィッシングメールの文章が、ChatGPTをはじめとするAIチャットbotによって書かれたものかどうかを検出するには、どのような手段が必要になるのでしょうか。

ウィスニエフスキー氏 さまざまな研究者グループが、ChatGPTがもたらす影響に対処するための研究を進めている。私が見た中で最も興味深かったのは、AIベンダーHugging Faceの研究だ。同社はChatGPTが生成したテキストを確実に検出するAIモデルを構築した。メールのフィルタリングといった目的で、このAIモデルを利用可能にしようとしている。

 Hugging FaceのAIモデルを生かせば「このメールの文章を書いたのが、ChatGPTや同様のML(機械学習)モデルである可能性は92%だ」などと教えてくれるプログラムを開発できるようになると考えられる。時間を掛けてこのAIモデルを改良すれば、ChatGPTなどのAIチャットbotが作り出したフィッシングメールをうまく判別できるようになる可能性がある。

―― ChatGPTの悪用を抑制するために、何かしらの法律を整備することは有効でしょうか。

ウィスニエフスキー氏 法律でChatGPTの利用を制限しても、大きな効果は期待できない。法律でAI技術の利用を制限することは、本質的にはAI技術を持つこと自体を違法とするのに等しい。AI技術を悪用させないためには、AI技術をなくすしかないからだ。AI技術の普及を止めることは、もはやできない。法律をいくら整備しても、既に世界中で利用されているAI技術をなかったことにすることは不可能だ。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ITmedia マーケティング新着記事

news132.jpg

ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。

news103.jpg

なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...

news160.jpg

業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...