北朝鮮ハッカー、身分を装い米国企業に「入社」 AIでできる驚きの攻撃とは:人工知能悪用にFBIが警鐘
人工知能(AI)技術を悪用し、攻撃の手口を巧妙化させる動きが加速化している。FBIも動いた、AI技術が可能にする「見破りにくい攻撃」とはどのようなものなのか。
攻撃者が標的をだます手口は、不正リンクをクリックさせたり、送金させたりするだけではない。新たな手口として、人工知能(AI)技術を使ったツールの悪用が広がっている。米連邦捜査局(FBI)がまとめた報告書を基に、AI技術の力を借りたソーシャルエンジニアリング(人の心理を巧みに操って意図通りの行動をさせる詐欺手法)の手口と、それに対抗するためのポイントを探る。
ここまで可能になった“AI技術を悪用した攻撃”
併せて読みたいお薦め記事
AI技術は攻撃にも使われ始めている
FBIはこのほどまとめた報告書で「犯罪者はAIツールを悪用することで被害者を信用させ、詐欺行為を大規模に展開している」と警鐘を鳴らす。FBIによると、AI技術は例えば以下の目的で使われている。
- おおむね文法が正しく、表現も自然な文章の生成
- 著名人やビジネス関係者を装った画像や音声の生成
- SNS(ソーシャルネットワーキングサービス)のプロフィール作成
FBIによれば、ソーシャルエンジニアリングの手口そのものは依然として変わっていないが、AI技術を利用することで、被害者にとっては詐欺であることを見破りにくくなっている。例えば、AI技術が生成した偽の動画や音声をビデオチャットに組み合わせれば、被害者は実在する人と会話していると信じ込んでしまう。「AIツールで偽の運転免許証や、警察官や銀行員を装った証明書が作成されることもある」(FBI)
推奨の予防策
FBIが推奨する予防策は以下の通りだ。
- 家族や職場で「自分が本物であることを証明する」ための合言葉を決めること
- できる限り、自分の画像や音声をインターネットで公開しないこと(攻撃に悪用される恐れがあるため)
- 常に攻撃を意識し、閲覧する画像や音声の「わずかな不自然さ」に敏感になること
AI技術を悪用した攻撃事例
FBIがAI技術を使ったソーシャルエンジニアリングについて注意を呼び掛けている背景には、攻撃の“成功事例”が増えていることがある。攻撃者の中には、ロシアや北朝鮮など国家が関わっている集団もあり、攻撃活動のさらなる活発化が予測される。2024年、AI技術が悪用された攻撃事例として下記の2つを挙げられる。
- 2024年初め、セキュリティトレーニング事業を手掛けるKnowBe4に、北朝鮮の攻撃者が身分を偽って入社。同社の機密情報へのアクセスを試みた。攻撃者はAI技術で生成された捏造(ねつぞう)動画「ディープフェイク」を用いて、4回にわたるビデオ面接を通過し、採用に至った。履歴書の作成にもAI技術が使用されていたとみられる。
- 2024年11月の米大統領選挙の前、ロシア政府に支援されるとみられるサイバー犯罪集団「Storm-1516」がAI技術によって生成された動画を使い、選挙関連の偽情報を発信していた。Microsoftが調査し、明らかにしている。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.