攻撃者は「ChatGPT」で何を調べているのか? “AI悪用”じわり広がる実態:Microsoftが警鐘を鳴らす「生成AI攻撃」【前編】
攻撃者が生成AIツールを悪用する動きが見られ、生成AIツールは組織のセキュリティを大きく変えようとしている。攻撃者は生成AIツールを何に使い、組織は何に注意すべきなのか。
MicrosoftとAI(人工知能)ベンダーOpenAI によれば、サイバー犯罪集団が「生成AI」(ジェネレーティブAI)を悪用した攻撃活動を活発化させている。生成AIはエンドユーザーの指示を基にテキストや画像、音声などのデータを生成する人工知能(AI)技術だ。攻撃者は生成AIをどのように使って標的の組織を狙っているのか。
OpenAIとMicrosoftが警鐘 犯罪者は生成AIで何を調べているのか?
併せて読みたいお薦め記事
AIが「セキュリティ」にもたらすインパクト
MicrosoftはAIベンダーOpenAIと密に連携しながら、AI技術の開発や、活用促進に注力している。そうした中でMicrosoftが運営するセキュリティ専門家コミュニティーMicrosoft Threat IntelligenceとOpenAIは2024年2月、OpenAIのAIチャットbot「ChatGPT」をはじめ、大規模言語モデル(LLM)をベースとした生成AIツールが攻撃に悪用され始めていることを明らかにした。
Microsoft Threat IntelligenceとOpenAIによれば、攻撃者は以下の目的で生成AIを悪用している。
- 攻撃に関連する技術的な情報を調べる
- 標的システムに関連する脆弱(ぜいじゃく)性の情報を収集する
- 標的に関連する人物の情報を収集する
生成AIツールをマルウェア開発におけるソースコードの作成に取り入れているサイバー犯罪集団があるともMicrosoftはみている。今後、サイバー犯罪集団による生成AIツールの悪用はさらに広がる可能性がある。
現時点では生成AIツールを使った大規模な攻撃は観察していないが、今後の動きに注意する必要があると、Microsoft Threat IntelligenceとOpenAIは説明する。「早い段階で注意喚起することにより、危機感を持ってセキュリティの強化に取り組んでもらいたい」(Microsoft Threat Intelligence)
Microsoftのチーフサイバーセキュリティアドバイザー、ブレット・アーセナル氏によると、生成AIは「攻撃」に悪用されるだけではなく、攻撃を受ける組織が「防御」を強化するために活用できる技術でもある。「組織はこの2つの視点からセキュリティの仕組みを考え直さなければならない」とアーセナル氏は述べる。
例えば組織は、生成AIツールを使うことで脅威の検出や対処の効率化を図れる。これは特にセキュリティ人材が不足する組織にとって、生成AIツールを活用するメリットになると考えられる。
中編は、生成AIツールの利用に取り組んでいるサイバー犯罪集団の具体例を取り上げる。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.