ChatGPTが“悪夢の犯罪ツール”になる日「ChatGPT」が引き起こすセキュリティの新たな課題【第1回】

AI技術の新たな可能性を示す「ChatGPT」に、攻撃者が関心を示し始めている。攻撃者がChatGPTを悪用すると、何が危険なのか。攻撃者はChatGPTにどのような可能性を見いだしているのか。専門家に聞く。

2023年02月25日 09時30分 公開
[Esther AjaoTechTarget]

関連キーワード

サイバー攻撃


 人工知能(AI)技術を活用したチャットbot(以下、AIチャットbot)「ChatGPT」に関心を寄せるのは、ライターなどのクリエイターだけではない。攻撃者もAIチャットbotに目を付けており、攻撃の手段として悪用する可能性がある。

ChatGPTが“最凶の犯罪ツール化”に

 開発元のOpenAIはChatGPTの機能を一部制限し、悪用を防ごうとしている。人種差別につながる言動ができないようにするなどだ。一方で同社への主要な出資元であるMicrosoftは、ChatGPTの活用範囲を広げようとしている。既にMicrosoftは、自社のAIサービス「Azure OpenAI Service」にChatGPTを組み込むことを表明済みだ。

 セキュリティベンダーSophosのプリンシパルリサーチサイエンティスト、チェスター・ウィスニエフスキー氏は、ChatGPTが攻撃の実行をいかに容易にするかを研究している。ウィスニエフスキー氏によると、ChatGPTの進化はフィッシング(情報窃取を目的とした詐欺行為)を容易にする可能性がある。

 ChatGPTに潜む危険性とは何か。ChatGPTを利用した攻撃に対抗するために、必要なこととは何か。ウィスニエフスキー氏に聞いた。

―― 攻撃者はChatGPTに、どのような可能性を見いだしているのでしょうか。

ウィスニエフスキー氏 フィッシングをはじめとする攻撃の手段として、ChatGPTなどのAIチャットbotを捉えた場合、大きく2つの可能性を見いだすことができる。1つ目は技術的な可能性、2つ目は社会的な可能性だ。

 技術的な可能性とは「ChatGPTに、マルウェア(悪意のあるプログラム)開発といった悪事をさせることができる」といったことを指す。私が簡単に調べたところ、ChatGPTにマルウェア開発の手伝いをさせることは可能だと考えられる。

 こうした技術的な可能性は、あまり重要だとは考えていない。あるマルウェアを検出した場合、そのソースコードを書いたのがイワンという名の男性なのか、キャロルという名の女性なのか、ChatGPTという名のAIチャットbotなのかは、さほど問題にならないからだ。マルウェアは誰が開発したのかを問わず、マルウェアであることに変わりはない。


 次回は、ウィスニエフスキー氏が危惧する、ChatGPTの社会的な可能性を深掘りする。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news053.jpg

フォルクスワーゲンがGoogleとタッグ 生成AI「Gemini」搭載で、何ができる?
Volkswagen of AmericaはGoogleと提携し、Googleの生成AI機能を専用アプリ「myVW」に導入...

news175.jpg

JAROに寄せられた「広告への苦情」は50年分でどれくらい? 業種別、媒体別の傾向は?
設立50周年を迎えた日本広告審査機構(JARO)が、これまでに寄せられた苦情を取りまとめ...

news085.jpg

データサイエンティストの認知率は米国6割、インド8割 さて、日本は?
データサイエンティスト協会は、日本と米国、インド、ドイツの4カ国で、データサイエンテ...