検索
特集/連載

攻撃者は「ChatGPT」で何を調べているのか? “AI悪用”じわり広がる実態Microsoftが警鐘を鳴らす「生成AI攻撃」【前編】

攻撃者が生成AIツールを悪用する動きが見られ、生成AIツールは組織のセキュリティを大きく変えようとしている。攻撃者は生成AIツールを何に使い、組織は何に注意すべきなのか。

Share
Tweet
LINE
Hatena

 MicrosoftとAI(人工知能)ベンダーOpenAI によれば、サイバー犯罪集団が「生成AI」(ジェネレーティブAI)を悪用した攻撃活動を活発化させている。生成AIはエンドユーザーの指示を基にテキストや画像、音声などのデータを生成する人工知能(AI)技術だ。攻撃者は生成AIをどのように使って標的の組織を狙っているのか。

OpenAIとMicrosoftが警鐘 犯罪者は生成AIで何を調べているのか?

 MicrosoftはAIベンダーOpenAIと密に連携しながら、AI技術の開発や、活用促進に注力している。そうした中でMicrosoftが運営するセキュリティ専門家コミュニティーMicrosoft Threat IntelligenceとOpenAIは2024年2月、OpenAIのAIチャットbot「ChatGPT」をはじめ、大規模言語モデル(LLM)をベースとした生成AIツールが攻撃に悪用され始めていることを明らかにした。

 Microsoft Threat IntelligenceとOpenAIによれば、攻撃者は以下の目的で生成AIを悪用している。

  • 攻撃に関連する技術的な情報を調べる
  • 標的システムに関連する脆弱(ぜいじゃく)性の情報を収集する
  • 標的に関連する人物の情報を収集する

 生成AIツールをマルウェア開発におけるソースコードの作成に取り入れているサイバー犯罪集団があるともMicrosoftはみている。今後、サイバー犯罪集団による生成AIツールの悪用はさらに広がる可能性がある。

 現時点では生成AIツールを使った大規模な攻撃は観察していないが、今後の動きに注意する必要があると、Microsoft Threat IntelligenceとOpenAIは説明する。「早い段階で注意喚起することにより、危機感を持ってセキュリティの強化に取り組んでもらいたい」(Microsoft Threat Intelligence)

 Microsoftのチーフサイバーセキュリティアドバイザー、ブレット・アーセナル氏によると、生成AIは「攻撃」に悪用されるだけではなく、攻撃を受ける組織が「防御」を強化するために活用できる技術でもある。「組織はこの2つの視点からセキュリティの仕組みを考え直さなければならない」とアーセナル氏は述べる。

 例えば組織は、生成AIツールを使うことで脅威の検出や対処の効率化を図れる。これは特にセキュリティ人材が不足する組織にとって、生成AIツールを活用するメリットになると考えられる。


 中編は、生成AIツールの利用に取り組んでいるサイバー犯罪集団の具体例を取り上げる。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る