フィッシングなどの犯罪への悪用を指摘する声がある、「ChatGPT」をはじめとするAIチャットbot。その悪用を防ぐための技術や法律には、どこまで期待できるのか。専門家の見方は。
人工知能(AI)ベンダーOpenAIの「ChatGPT」をはじめとするAIチャットbot(AI技術を活用したチャットbot)を、攻撃者がフィッシング(情報窃取を目的とした詐欺行為)メールの作成に悪用する恐れがある――。セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、こう指摘する。
AIチャットbotの悪用に対処するために、セキュリティ対策の技術開発や法整備が進む可能性がある。ウィスニエフスキー氏は技術開発には期待を寄せるものの、法整備の実効性には否定的な見解を示す。それはなぜなのか。同氏に考えを聞いた。
―― フィッシングメールの文章が、ChatGPTをはじめとするAIチャットbotによって書かれたものかどうかを検出するには、どのような手段が必要になるのでしょうか。
ウィスニエフスキー氏 さまざまな研究者グループが、ChatGPTがもたらす影響に対処するための研究を進めている。私が見た中で最も興味深かったのは、AIベンダーHugging Faceの研究だ。同社はChatGPTが生成したテキストを確実に検出するAIモデルを構築した。メールのフィルタリングといった目的で、このAIモデルを利用可能にしようとしている。
Hugging FaceのAIモデルを生かせば「このメールの文章を書いたのが、ChatGPTや同様のML(機械学習)モデルである可能性は92%だ」などと教えてくれるプログラムを開発できるようになると考えられる。時間を掛けてこのAIモデルを改良すれば、ChatGPTなどのAIチャットbotが作り出したフィッシングメールをうまく判別できるようになる可能性がある。
―― ChatGPTの悪用を抑制するために、何かしらの法律を整備することは有効でしょうか。
ウィスニエフスキー氏 法律でChatGPTの利用を制限しても、大きな効果は期待できない。法律でAI技術の利用を制限することは、本質的にはAI技術を持つこと自体を違法とするのに等しい。AI技術を悪用させないためには、AI技術をなくすしかないからだ。AI技術の普及を止めることは、もはやできない。法律をいくら整備しても、既に世界中で利用されているAI技術をなかったことにすることは不可能だ。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
FacebookやXなど主要SNSで進む「外部リンク制限」の実態 唯一の例外は?
ソーシャルメディアはかつてWebサイトへの重要な流入経路であった。しかし、最近は各プラ...
生成AIとAR/VRで失った個性を取り戻す――2025年のSNS大予測(Instagram編)
万能だが特徴のはっきりしない「何でも屋」と化したInstagram。2025年の進化の方向性を予...
「AIネイティブ世代」の誕生 10代のAI活用度合いは?
博報堂DYホールディングスのHuman-Centered AI Instituteは、AIに対する現状の生活者意識...