ChatGPT規制派を黙らせる「もう後戻りできないAI依存」の現実「ChatGPT」が引き起こすセキュリティの新たな課題【第4回】

フィッシングなどの犯罪への悪用を指摘する声がある、「ChatGPT」をはじめとするAIチャットbot。その悪用を防ぐための技術や法律には、どこまで期待できるのか。専門家の見方は。

2023年04月22日 13時00分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を活用したチャットbot)を、攻撃者がフィッシング(情報窃取を目的とした詐欺行為)メールの作成に悪用する恐れがある――。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、こう指摘する。

 AIチャットbotの悪用に対処するために、セキュリティ対策の技術開発や法整備が進む可能性がある。ウィスニエフスキー氏は技術開発には期待を寄せるものの、法整備の実効性には否定的な見解を示す。それはなぜなのか。同氏に考えを聞いた。

だから“ChatGPT悪用禁止法”は意味がない

―― フィッシングメールの文章が、ChatGPTをはじめとするAIチャットbotによって書かれたものかどうかを検出するには、どのような手段が必要になるのでしょうか。

ウィスニエフスキー氏 さまざまな研究者グループが、ChatGPTがもたらす影響に対処するための研究を進めている。私が見た中で最も興味深かったのは、AIベンダーHugging Faceの研究だ。同社はChatGPTが生成したテキストを確実に検出するAIモデルを構築した。メールのフィルタリングといった目的で、このAIモデルを利用可能にしようとしている。

 Hugging FaceのAIモデルを生かせば「このメールの文章を書いたのが、ChatGPTや同様のML(機械学習)モデルである可能性は92%だ」などと教えてくれるプログラムを開発できるようになると考えられる。時間を掛けてこのAIモデルを改良すれば、ChatGPTなどのAIチャットbotが作り出したフィッシングメールをうまく判別できるようになる可能性がある。

―― ChatGPTの悪用を抑制するために、何かしらの法律を整備することは有効でしょうか。

ウィスニエフスキー氏 法律でChatGPTの利用を制限しても、大きな効果は期待できない。法律でAI技術の利用を制限することは、本質的にはAI技術を持つこと自体を違法とするのに等しい。AI技術を悪用させないためには、AI技術をなくすしかないからだ。AI技術の普及を止めることは、もはやできない。法律をいくら整備しても、既に世界中で利用されているAI技術をなかったことにすることは不可能だ。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news060.jpg

Z世代が考える「日本が最も力を入れて取り組むべき課題」1位は「ジェンダー平等」――SHIBUYA109 lab.調査
SDGsで挙げられている17の目標のうち、Z世代が考える「日本が最も力を入れて取り組むべき...

news061.png

高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...

news193.jpg

IASがブランドセーフティーの計測を拡張 誤報に関するレポートを追加
IASは、ブランドセーフティーと適合性の計測ソリューションを拡張し、誤報とともに広告が...