「生成AIでマルウェア」は作れるか? 攻撃者が目を付ける“悪用手段”のまとめ「もろ刃の剣」の生成AI【中編】

ChatGPTをはじめとする生成AIツールは、企業にメリットだけではなくセキュリティリスクをもたらす可能性がある。サイバー攻撃者は、生成AIをどのように悪用しようとたくらんでいるのか。

2023年07月28日 05時15分 公開
[Luke WittsTechTarget]

 テキストや画像などを自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)は、企業にどのような脅威をもたらすのか。サイバー攻撃者が、生成AIをどのように悪用する可能性があるのかをまとめる。

「生成AI」を悪用するさまざまな手口 そもそもマルウェア作成はできる?

 OpenAIが提供するAI技術を活用したチャットbot「ChatGPT」は、ソースコードの補完や要約、バグ検出の自動化に活用可能だ。企業は、攻撃者がこの能力に目を付け、脆弱(ぜいじゃく)性の特定に生成AIを悪用するのではないかと懸念し始めている。

 他にも攻撃者は、「WhatsApp」のようなメッセージングアプリケーションやショートメッセージサービス(SMS)、メールを悪用した攻撃で生成AIを活用可能だ。こうした攻撃を通じて攻撃者は、標的とメッセージを自動でやりとりして信頼関係を築き、機密情報を入手する可能性がある。機密情報は文面で要求することも、標的にマルウェアのダウンロードリンクをクリックさせ、そのマルウェアを通じて収集することも可能だ。攻撃者はなりすましを目的として、以下のコンテンツ生成に生成AIを悪用する可能性もある。

  • 深層学習(ディープラーニング)技術を利用した偽(フェイク)の動画や音声「ディープフェイク」
  • テキストの音声読み上げ

 一方で「攻撃者が生成AIを使ってマルウェアを開発できる」というのは短絡的な考えに過ぎない。現状、生成AIのプログラミング能力は限定的だ。例えば生成AIが作成した、関数型プログラミング(数学的な関数を組み合わせたプログラミング)のソースコードは、不正確であることが少なくない。プログラミング用に調整された生成AIであっても、プログラミング言語「Python」で簡単なソースコードは作成できるが、複雑なプログラミング言語やソースコードになると悪戦苦闘する場合が大半だ。

 生成AIを用いたPythonでのマルウェア開発事例もあるが、開発用途における生成AIの実用性は、まだ限定的だという見方が強い。現状、攻撃者はマルウェア開発に生成AIを利用しても、既存のツールや技法を上回るメリットはほぼ得ることができない。

 ただし生成AIがもたらす脅威を無視するわけにはいかない。ChatGPTの中核である「GPT」をはじめとする大規模言語モデル(LLM)は、人の会話を模倣することにおいて非常に優れている。生成AIが作成したテキストと人の会話を区別することは簡単ではない。

 今後、より信頼性のあるAIモデルが誕生する可能性はある。生成AIがもたらす脅威に対処するには、先を見越して備えておくべきだ。


 後編は、生成AIのリスクを防ぐために企業が取れるアプローチを紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news061.png

高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...

news193.jpg

IASがブランドセーフティーの計測を拡張 誤報に関するレポートを追加
IASは、ブランドセーフティーと適合性の計測ソリューションを拡張し、誤報とともに広告が...

news047.png

【Googleが公式見解を発表】中古ドメインを絶対に使ってはいけない理由とは?
Googleが中古ドメインの不正利用を禁止を公式に発表しました。その理由や今後の対応につ...