ChatGPTが“悪夢の犯罪ツール”になる日「ChatGPT」が引き起こすセキュリティの新たな課題【第1回】

AI技術の新たな可能性を示す「ChatGPT」に、攻撃者が関心を示し始めている。攻撃者がChatGPTを悪用すると、何が危険なのか。攻撃者はChatGPTにどのような可能性を見いだしているのか。専門家に聞く。

2023年02月25日 09時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)技術を活用したチャットbot(以下、AIチャットbot)「ChatGPT」に関心を寄せるのは、ライターなどのクリエイターだけではない。攻撃者もAIチャットbotに目を付けており、攻撃の手段として悪用する可能性がある。

ChatGPTが“最凶の犯罪ツール化”に

 開発元のOpenAIはChatGPTの機能を一部制限し、悪用を防ごうとしている。人種差別につながる言動ができないようにするなどだ。一方で同社への主要な出資元であるMicrosoftは、ChatGPTの活用範囲を広げようとしている。既にMicrosoftは、自社のAIサービス「Azure OpenAI Service」にChatGPTを組み込むことを表明済みだ。

 セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、ChatGPTが攻撃の実行をいかに容易にするかを研究している。ウィスニエフスキー氏によると、ChatGPTの進化はフィッシング(情報窃取を目的とした詐欺行為)を容易にする可能性がある。

 ChatGPTに潜む危険性とは何か。ChatGPTを利用した攻撃に対抗するために、必要なこととは何か。ウィスニエフスキー氏に聞いた。

―― 攻撃者はChatGPTに、どのような可能性を見いだしているのでしょうか。

ウィスニエフスキー氏 フィッシングをはじめとする攻撃の手段として、ChatGPTなどのAIチャットbotを捉えた場合、大きく2つの可能性を見いだすことができる。1つ目は技術的な可能性、2つ目は社会的な可能性だ。

 技術的な可能性とは「ChatGPTに、マルウェア(悪意のあるプログラム)開発といった悪事をさせることができる」といったことを指す。私が簡単に調べたところ、ChatGPTにマルウェア開発の手伝いをさせることは可能だと考えられる。

 こうした技術的な可能性は、あまり重要だとは考えていない。あるマルウェアを検出した場合、そのソースコードを書いたのがイワンという名の男性なのか、キャロルという名の女性なのか、ChatGPTという名のAIチャットbotなのかは、さほど問題にならないからだ。マルウェアは誰が開発したのかを問わず、マルウェアであることに変わりはない。


 次回は、ウィスニエフスキー氏が危惧する、ChatGPTの社会的な可能性を深掘りする。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ITmedia マーケティング新着記事

news132.jpg

ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。

news103.jpg

なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...

news160.jpg

業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...