生成AIを使うことで、さまざまな人の顔や声を再現し、攻撃に悪用することが可能になる。その中でも、Microsoftは“ある内容のメール”に警戒が必要だと指摘する。
エンドユーザーの指示を基にテキストや画像、音声などのデータを生成する人工知能技術「生成AI」(ジェネレーティブAI)の活用が広がっている。ソーシャルエンジニアリング(人の心理を巧みに操って意図通りの行動をさせる詐欺手法)をはじめとした攻撃において、どのようなリスクが生じる可能性があるのか。
Microsoftは生成AIツールに関して、ソーシャルエンジニアリングへの影響を調査している。同社によると、さまざまな人の顔や声、メールの文体などを再現し、なりすましをすることが生成AIツールによって容易になる可能性がある。その中でも、特に“ある内容のメール”に警戒が必要だ同社は指摘する。
2023年に起きたソーシャルエンジニアリングの例としては、Retoolが手掛ける開発者向けツールを狙った攻撃があった。攻撃者はRetoolに関する知識を身に付けた上で、同ツール開発チームのメンバーになりすまして内部のアクセス権限を取得した。Microsoftは「生成AIツールを使って偽の画像や音声を用いることで、Retoolへの攻撃よりも巧妙な手口を生み出すことが可能だ」と警鐘を鳴らす。
Microsoftは生成AIツールの利用によって、特にメール攻撃のリスクが高まるとみている。AI技術の進化により、正しい文法や自然な表現の生成が可能になったと同社は指摘。従来のように、文章を見て悪意のあるメールなのかどうかを判断することが難しくなりつつあるという。Microsoftによれば、ソーシャルエンジニアリング攻撃に対抗するためには防御側もAI技術を深く理解する必要がある。
特に注意しなければならないのは、サービスや製品の「無料トライアル」や「プロモーション価格」といった誘い文句を含めたメールだ。組織では、多要素認証(MFA)ツールの採用が広がっている。そうした中、MFAの認証情報を狙ったソーシャルエンジニアリング攻撃も盛んだとMicrosoftは説明する。
ソーシャルエンジニアリング攻撃の防止策の一つは、従業員向けセキュリティ教育の徹底だ。ソーシャルエンジニアリングは“人間の脆弱(ぜいじゃく)性”を悪用するため、継続的なセキュリティ教育によって従業員のリテラシーを高めることが有効だと考えられる。
Microsoftは自社製品でもAI技術を使い、セキュリティの強化に取り組んでいる。2024年3月、大規模言語モデル(LLM)を取り入れたセキュリティツール「Microsoft Copilot for Security」を発表した。同社はユーザー企業に対し、ソーシャルエンジニアリング攻撃のリスクを減らすためにこうしたツールの活用を推奨。それに加えて、セキュリティの「原則」をリスト化して公開している。主な原則は以下の通りだ。
生成AIについてMicrosoftは、他の技術と同様、攻撃者に悪用される恐れがあるとみている。そのため、生成AIそのものを否定するのではなく、ちゃんとセキュリティリスクを把握して対策を講じることが重要だと同社は強調する。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
SNS発信のベストな時間帯(2025年版) InstagramとFacebook、TikTokでどう違う?
Hootsuiteが2025年版のソーシャルメディア最適投稿時間を公開。各プラットフォームごとの...
「動画広告がディスプレイ広告超え」他、電通「2024年 日本の広告費」インターネット広告媒体費の詳細分析
国内電通グループのデジタル領域をけん引する4社は共同で「2024年 日本の広告費」のイン...
テレビCMとSNS広告、どちらが有効? アプリのインストールにつながる施策は……
Reproはスマートフォンユーザー1236人を対象に「モバイルアプリのインストール実態調査」...