検索
特集/連載

ChatGPT規制派を黙らせる「もう後戻りできないAI依存」の現実「ChatGPT」が引き起こすセキュリティの新たな課題【第4回】

フィッシングなどの犯罪への悪用を指摘する声がある、「ChatGPT」をはじめとするAIチャットbot。その悪用を防ぐための技術や法律には、どこまで期待できるのか。専門家の見方は。

Share
Tweet
LINE
Hatena

関連キーワード

サイバー攻撃


 人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を活用したチャットbot)を、攻撃者がフィッシング(情報窃取を目的とした詐欺行為)メールの作成に悪用する恐れがある――。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、こう指摘する。

 AIチャットbotの悪用に対処するために、セキュリティ対策の技術開発や法整備が進む可能性がある。ウィスニエフスキー氏は技術開発には期待を寄せるものの、法整備の実効性には否定的な見解を示す。それはなぜなのか。同氏に考えを聞いた。

だから“ChatGPT悪用禁止法”は意味がない

―― フィッシングメールの文章が、ChatGPTをはじめとするAIチャットbotによって書かれたものかどうかを検出するには、どのような手段が必要になるのでしょうか。

ウィスニエフスキー氏 さまざまな研究者グループが、ChatGPTがもたらす影響に対処するための研究を進めている。私が見た中で最も興味深かったのは、AIベンダーHugging Faceの研究だ。同社はChatGPTが生成したテキストを確実に検出するAIモデルを構築した。メールのフィルタリングといった目的で、このAIモデルを利用可能にしようとしている。

 Hugging FaceのAIモデルを生かせば「このメールの文章を書いたのが、ChatGPTや同様のML(機械学習)モデルである可能性は92%だ」などと教えてくれるプログラムを開発できるようになると考えられる。時間を掛けてこのAIモデルを改良すれば、ChatGPTなどのAIチャットbotが作り出したフィッシングメールをうまく判別できるようになる可能性がある。

―― ChatGPTの悪用を抑制するために、何かしらの法律を整備することは有効でしょうか。

ウィスニエフスキー氏 法律でChatGPTの利用を制限しても、大きな効果は期待できない。法律でAI技術の利用を制限することは、本質的にはAI技術を持つこと自体を違法とするのに等しい。AI技術を悪用させないためには、AI技術をなくすしかないからだ。AI技術の普及を止めることは、もはやできない。法律をいくら整備しても、既に世界中で利用されているAI技術をなかったことにすることは不可能だ。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る