ChatGPTが“悪夢の犯罪ツール”になる日「ChatGPT」が引き起こすセキュリティの新たな課題【第1回】

AI技術の新たな可能性を示す「ChatGPT」に、攻撃者が関心を示し始めている。攻撃者がChatGPTを悪用すると、何が危険なのか。攻撃者はChatGPTにどのような可能性を見いだしているのか。専門家に聞く。

2023年02月25日 09時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)技術を活用したチャットbot(以下、AIチャットbot)「ChatGPT」に関心を寄せるのは、ライターなどのクリエイターだけではない。攻撃者もAIチャットbotに目を付けており、攻撃の手段として悪用する可能性がある。

ChatGPTが“最凶の犯罪ツール化”に

 開発元のOpenAIはChatGPTの機能を一部制限し、悪用を防ごうとしている。人種差別につながる言動ができないようにするなどだ。一方で同社への主要な出資元であるMicrosoftは、ChatGPTの活用範囲を広げようとしている。既にMicrosoftは、自社のAIサービス「Azure OpenAI Service」にChatGPTを組み込むことを表明済みだ。

 セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、ChatGPTが攻撃の実行をいかに容易にするかを研究している。ウィスニエフスキー氏によると、ChatGPTの進化はフィッシング(情報窃取を目的とした詐欺行為)を容易にする可能性がある。

 ChatGPTに潜む危険性とは何か。ChatGPTを利用した攻撃に対抗するために、必要なこととは何か。ウィスニエフスキー氏に聞いた。

―― 攻撃者はChatGPTに、どのような可能性を見いだしているのでしょうか。

ウィスニエフスキー氏 フィッシングをはじめとする攻撃の手段として、ChatGPTなどのAIチャットbotを捉えた場合、大きく2つの可能性を見いだすことができる。1つ目は技術的な可能性、2つ目は社会的な可能性だ。

 技術的な可能性とは「ChatGPTに、マルウェア(悪意のあるプログラム)開発といった悪事をさせることができる」といったことを指す。私が簡単に調べたところ、ChatGPTにマルウェア開発の手伝いをさせることは可能だと考えられる。

 こうした技術的な可能性は、あまり重要だとは考えていない。あるマルウェアを検出した場合、そのソースコードを書いたのがイワンという名の男性なのか、キャロルという名の女性なのか、ChatGPTという名のAIチャットbotなのかは、さほど問題にならないからだ。マルウェアは誰が開発したのかを問わず、マルウェアであることに変わりはない。


 次回は、ウィスニエフスキー氏が危惧する、ChatGPTの社会的な可能性を深掘りする。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news061.jpg

マーケターの87%は自分の仕事が生成AIなどのテクノロジーに取って代わられることを懸念――Gartner調査
Gartnerがマーケティング人材に関する調査を実施。環境的不確実性と技術的複雑性の中で、...

news058.jpg

Z世代が旅に求める「令和的非日常」とは?
JTBコミュニケーションデザインと伊藤忠ファッションシステムが、Z世代の旅に関する意識...

news094.jpg

電通が「AI×クリエイティブ」の強みを生かしたビジネスコンサルティングサービスを提供開始
電通は「AI×クリエイティブ」で企業の事業やサービスの開発を支援する新サービス「AIQQQ...