ChatGPTをはじめとする生成AIツールは、企業にメリットだけではなくセキュリティリスクをもたらす可能性がある。サイバー攻撃者は、生成AIをどのように悪用しようとたくらんでいるのか。
テキストや画像などを自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)は、企業にどのような脅威をもたらすのか。サイバー攻撃者が、生成AIをどのように悪用する可能性があるのかをまとめる。
OpenAIが提供するAI技術を活用したチャットbot「ChatGPT」は、ソースコードの補完や要約、バグ検出の自動化に活用可能だ。企業は、攻撃者がこの能力に目を付け、脆弱(ぜいじゃく)性の特定に生成AIを悪用するのではないかと懸念し始めている。
他にも攻撃者は、「WhatsApp」のようなメッセージングアプリケーションやショートメッセージサービス(SMS)、メールを悪用した攻撃で生成AIを活用可能だ。こうした攻撃を通じて攻撃者は、標的とメッセージを自動でやりとりして信頼関係を築き、機密情報を入手する可能性がある。機密情報は文面で要求することも、標的にマルウェアのダウンロードリンクをクリックさせ、そのマルウェアを通じて収集することも可能だ。攻撃者はなりすましを目的として、以下のコンテンツ生成に生成AIを悪用する可能性もある。
一方で「攻撃者が生成AIを使ってマルウェアを開発できる」というのは短絡的な考えに過ぎない。現状、生成AIのプログラミング能力は限定的だ。例えば生成AIが作成した、関数型プログラミング(数学的な関数を組み合わせたプログラミング)のソースコードは、不正確であることが少なくない。プログラミング用に調整された生成AIであっても、プログラミング言語「Python」で簡単なソースコードは作成できるが、複雑なプログラミング言語やソースコードになると悪戦苦闘する場合が大半だ。
生成AIを用いたPythonでのマルウェア開発事例もあるが、開発用途における生成AIの実用性は、まだ限定的だという見方が強い。現状、攻撃者はマルウェア開発に生成AIを利用しても、既存のツールや技法を上回るメリットはほぼ得ることができない。
ただし生成AIがもたらす脅威を無視するわけにはいかない。ChatGPTの中核である「GPT」をはじめとする大規模言語モデル(LLM)は、人の会話を模倣することにおいて非常に優れている。生成AIが作成したテキストと人の会話を区別することは簡単ではない。
今後、より信頼性のあるAIモデルが誕生する可能性はある。生成AIがもたらす脅威に対処するには、先を見越して備えておくべきだ。
後編は、生成AIのリスクを防ぐために企業が取れるアプローチを紹介する。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
インバウンド消費を左右する在日中国人の影響力
アライドアーキテクツは、独自に構築した在日中国人コミュニティーを対象に、在日中国人...
SEOは総合格闘技である――「SEOおたく」が語る普遍のマインド
SEOの最新情報を発信する「SEOおたく」の中の人として知られる著者が、SEO担当者が持つべ...
HubSpot CMSにWebサイトの「定石」を実装 WACUL×100のパッケージ第1弾を提供開始
WACULと100は共同で、Webサイトの「定石」をHubSpotで実装する「Webサイト構築パッケージ...