ChatGPTが“悪夢の犯罪ツール”になる日「ChatGPT」が引き起こすセキュリティの新たな課題【第1回】

AI技術の新たな可能性を示す「ChatGPT」に、攻撃者が関心を示し始めている。攻撃者がChatGPTを悪用すると、何が危険なのか。攻撃者はChatGPTにどのような可能性を見いだしているのか。専門家に聞く。

2023年02月25日 09時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)技術を活用したチャットbot(以下、AIチャットbot)「ChatGPT」に関心を寄せるのは、ライターなどのクリエイターだけではない。攻撃者もAIチャットbotに目を付けており、攻撃の手段として悪用する可能性がある。

ChatGPTが“最凶の犯罪ツール化”に

 開発元のOpenAIはChatGPTの機能を一部制限し、悪用を防ごうとしている。人種差別につながる言動ができないようにするなどだ。一方で同社への主要な出資元であるMicrosoftは、ChatGPTの活用範囲を広げようとしている。既にMicrosoftは、自社のAIサービス「Azure OpenAI Service」にChatGPTを組み込むことを表明済みだ。

 セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、ChatGPTが攻撃の実行をいかに容易にするかを研究している。ウィスニエフスキー氏によると、ChatGPTの進化はフィッシング(情報窃取を目的とした詐欺行為)を容易にする可能性がある。

 ChatGPTに潜む危険性とは何か。ChatGPTを利用した攻撃に対抗するために、必要なこととは何か。ウィスニエフスキー氏に聞いた。

―― 攻撃者はChatGPTに、どのような可能性を見いだしているのでしょうか。

ウィスニエフスキー氏 フィッシングをはじめとする攻撃の手段として、ChatGPTなどのAIチャットbotを捉えた場合、大きく2つの可能性を見いだすことができる。1つ目は技術的な可能性、2つ目は社会的な可能性だ。

 技術的な可能性とは「ChatGPTに、マルウェア(悪意のあるプログラム)開発といった悪事をさせることができる」といったことを指す。私が簡単に調べたところ、ChatGPTにマルウェア開発の手伝いをさせることは可能だと考えられる。

 こうした技術的な可能性は、あまり重要だとは考えていない。あるマルウェアを検出した場合、そのソースコードを書いたのがイワンという名の男性なのか、キャロルという名の女性なのか、ChatGPTという名のAIチャットbotなのかは、さほど問題にならないからだ。マルウェアは誰が開発したのかを問わず、マルウェアであることに変わりはない。


 次回は、ウィスニエフスキー氏が危惧する、ChatGPTの社会的な可能性を深掘りする。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news176.jpg

「伊右衛門」「日清麺職人」「鍋キューブ」に見る2024年上半期食品・飲料トレンドは「うま濃い余韻」
食品メーカーの商品開発やマーケティング支援などを行う味香り戦略研究所は、2024年の食...

news076.jpg

オラクルが広告事業から撤退へ ポストCookie時代の業界地図は変わるか?
Oracleは「Responsys」「Moat」「BlueKai」などの買収を重ねて広告部門を構築してきた。...

news068.jpg

琉球泡盛「残波」「海乃邦」の海外展開を例に考える日本のブランドが持つべき視点
日本のブランドが海外展開で持つべき視点とはどのようなものか。2024年4月にI&CO APAC代...