「生成AIによるフェイク」で本当に危ないのは“あのメール”:Microsoftが警鐘を鳴らす「生成AI攻撃」【後編】
生成AIを使うことで、さまざまな人の顔や声を再現し、攻撃に悪用することが可能になる。その中でも、Microsoftは“ある内容のメール”に警戒が必要だと指摘する。
エンドユーザーの指示を基にテキストや画像、音声などのデータを生成する人工知能技術「生成AI」(ジェネレーティブAI)の活用が広がっている。ソーシャルエンジニアリング(人の心理を巧みに操って意図通りの行動をさせる詐欺手法)をはじめとした攻撃において、どのようなリスクが生じる可能性があるのか。
Microsoftは生成AIツールに関して、ソーシャルエンジニアリングへの影響を調査している。同社によると、さまざまな人の顔や声、メールの文体などを再現し、なりすましをすることが生成AIツールによって容易になる可能性がある。その中でも、特に“ある内容のメール”に警戒が必要だ同社は指摘する。
特に“あのメール”で「生成AIによるフェイク」に要注意
併せて読みたいお薦め記事
連載:Microsoftが警鐘を鳴らす「生成AI攻撃」
AIが「セキュリティ」にもたらすインパクト
2023年に起きたソーシャルエンジニアリングの例としては、Retoolが手掛ける開発者向けツールを狙った攻撃があった。攻撃者はRetoolに関する知識を身に付けた上で、同ツール開発チームのメンバーになりすまして内部のアクセス権限を取得した。Microsoftは「生成AIツールを使って偽の画像や音声を用いることで、Retoolへの攻撃よりも巧妙な手口を生み出すことが可能だ」と警鐘を鳴らす。
Microsoftは生成AIツールの利用によって、特にメール攻撃のリスクが高まるとみている。AI技術の進化により、正しい文法や自然な表現の生成が可能になったと同社は指摘。従来のように、文章を見て悪意のあるメールなのかどうかを判断することが難しくなりつつあるという。Microsoftによれば、ソーシャルエンジニアリング攻撃に対抗するためには防御側もAI技術を深く理解する必要がある。
特に注意しなければならないのは、サービスや製品の「無料トライアル」や「プロモーション価格」といった誘い文句を含めたメールだ。組織では、多要素認証(MFA)ツールの採用が広がっている。そうした中、MFAの認証情報を狙ったソーシャルエンジニアリング攻撃も盛んだとMicrosoftは説明する。
ソーシャルエンジニアリング攻撃の防止策の一つは、従業員向けセキュリティ教育の徹底だ。ソーシャルエンジニアリングは“人間の脆弱(ぜいじゃく)性”を悪用するため、継続的なセキュリティ教育によって従業員のリテラシーを高めることが有効だと考えられる。
生成AI攻撃に立ち向かう「4大原則」
Microsoftは自社製品でもAI技術を使い、セキュリティの強化に取り組んでいる。2024年3月、大規模言語モデル(LLM)を取り入れたセキュリティツール「Microsoft Copilot for Security」を発表した。同社はユーザー企業に対し、ソーシャルエンジニアリング攻撃のリスクを減らすためにこうしたツールの活用を推奨。それに加えて、セキュリティの「原則」をリスト化して公開している。主な原則は以下の通りだ。
- 生成AIツールの利用に当たり、どのベンダーから技術を取り入れ、誰がどう使っているのかといったことの見える化
- AI技術ベンダーを定期的に評価する。セキュリティリスクがあると判断したら、他のベンダーに切り替える
- 生成AIツールへの問いかけ(プロンプト作成)の明確なルール化
- 生成AIツールの利用を前提としたセキュリティポリシーの策定と運用
生成AIについてMicrosoftは、他の技術と同様、攻撃者に悪用される恐れがあるとみている。そのため、生成AIそのものを否定するのではなく、ちゃんとセキュリティリスクを把握して対策を講じることが重要だと同社は強調する。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.