ChatGPTが“悪夢の犯罪ツール”になる日「ChatGPT」が引き起こすセキュリティの新たな課題【第1回】

AI技術の新たな可能性を示す「ChatGPT」に、攻撃者が関心を示し始めている。攻撃者がChatGPTを悪用すると、何が危険なのか。攻撃者はChatGPTにどのような可能性を見いだしているのか。専門家に聞く。

2023年02月25日 09時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)技術を活用したチャットbot(以下、AIチャットbot)「ChatGPT」に関心を寄せるのは、ライターなどのクリエイターだけではない。攻撃者もAIチャットbotに目を付けており、攻撃の手段として悪用する可能性がある。

ChatGPTが“最凶の犯罪ツール化”に

 開発元のOpenAIはChatGPTの機能を一部制限し、悪用を防ごうとしている。人種差別につながる言動ができないようにするなどだ。一方で同社への主要な出資元であるMicrosoftは、ChatGPTの活用範囲を広げようとしている。既にMicrosoftは、自社のAIサービス「Azure OpenAI Service」にChatGPTを組み込むことを表明済みだ。

 セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、ChatGPTが攻撃の実行をいかに容易にするかを研究している。ウィスニエフスキー氏によると、ChatGPTの進化はフィッシング(情報窃取を目的とした詐欺行為)を容易にする可能性がある。

 ChatGPTに潜む危険性とは何か。ChatGPTを利用した攻撃に対抗するために、必要なこととは何か。ウィスニエフスキー氏に聞いた。

―― 攻撃者はChatGPTに、どのような可能性を見いだしているのでしょうか。

ウィスニエフスキー氏 フィッシングをはじめとする攻撃の手段として、ChatGPTなどのAIチャットbotを捉えた場合、大きく2つの可能性を見いだすことができる。1つ目は技術的な可能性、2つ目は社会的な可能性だ。

 技術的な可能性とは「ChatGPTに、マルウェア(悪意のあるプログラム)開発といった悪事をさせることができる」といったことを指す。私が簡単に調べたところ、ChatGPTにマルウェア開発の手伝いをさせることは可能だと考えられる。

 こうした技術的な可能性は、あまり重要だとは考えていない。あるマルウェアを検出した場合、そのソースコードを書いたのがイワンという名の男性なのか、キャロルという名の女性なのか、ChatGPTという名のAIチャットbotなのかは、さほど問題にならないからだ。マルウェアは誰が開発したのかを問わず、マルウェアであることに変わりはない。


 次回は、ウィスニエフスキー氏が危惧する、ChatGPTの社会的な可能性を深掘りする。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news047.jpg

SASのCMOが語る マーケティング部門が社内の生成AI活用のけん引役に適している理由
データとアナリティクスの世界で半世紀近くにわたり知見を培ってきたSAS。同社のCMOに、...

news159.jpg

SALES ROBOTICSが「カスタマーサクセス支援サービス」を提供
SALES ROBOTICSは、カスタマーサクセスを実現する新サービスの提供を開始した。

news139.jpg

「Fortnite」を活用  朝日広告社がメタバース空間制作サービスとマーケティング支援を開始
朝日広告社は、人気ゲーム「Fortnite」に新たなゲームメタバース空間を公開した。また、...