「ディープフェイク」の被害者は有名人だけだと思い込んでいないか?:偽音声や動画による詐欺行為
捏造した音声や動画「ディープフェイク」によるサイバー犯罪は、政府や企業の要人などを主な標的にしている。一方でこの脅威にはどの企業も警戒すべきだという意見もある。何が危険なのか。
「ディープフェイク」は、敵対的生成ネットワーク(GAN:Generative Adversarial Network)などの機械学習技術を使って作り出された、偽の音声や動画、画像だ。攻撃者はディープフェイクを利用して、実際にない言動を実際のことのように見せ掛けて犯罪に及ぶ。純粋な娯楽を目的とすることもあれば、企業や要人に恥をかかせたり、社会を混乱させたり、脅迫したり、条約違反を隠蔽(いんぺい)したりすることを目的とすることもある。特に捜査当局、政治組織、軍、メディア、広告業にとって大きな脅威だ。
なぜ一般企業のITリーダーやセキュリティ専門家が、ディープフェイクのセキュリティリスクを懸念すべきなのか。「自分は音声や動画を悪用されるような行動はしていない」と考えているとすれば、それは誤りだ。
身近な脅威になり得るディープフェイク
例えばある企業が防犯カメラを使って、カジノのディーラーや金庫の扉、オフィスの入り口などを監視することを考える。一度しか書き込みができないメディアに、全ての録画データを保存できるわけではない場合、実際には金庫に入らなかった人が入ったように見せ掛けたり、入った人を隠したりするように見せ掛ける映像の改ざんがないとは言い切れない。
併せて読みたいお薦め記事
ディープフェイクの脅威
ビジネスを狙うサイバー犯罪
目的がシステムへの不正侵入ではなかったとしても、ディープフェイクは企業のセキュリティリスクになり得る。影響を受けやすいのが、システムログやネットワークログといったデジタルデータの中から不正の証拠を見つける「デジタルフォレンジック」だ。不正の証拠となるデジタルデータの捏造(ねつぞう)に、ディープフェイクが使われないと言い切れるのか。
内部関係者によるシステムへの不正アクセスに、ディープフェイクが使われる可能性も考慮する必要がある。自社や業務委託先、連携企業のスタッフが、説得力のある捏造動画で脅迫され、システムに不正侵入させられる可能性もゼロではない。国家が関与するサイバー犯罪の世界では、もはやディープフェイクは「犯罪者の手が届かないもの」として片付けることはできなくなった。企業やその事業の機密性が高いほど、このような攻撃が起きる可能性は大きい。
AI技術は敵か味方か
ディープフェイクによる捏造を悪用した攻撃において、AI(人工知能)技術はもろ刃の剣になる。攻撃者が機械学習をはじめとするAI技術をディープフェイクに利用し、反復的に学習させて生成物の品質を向上させることができれば、リスクは増大するだろう。
AI技術はディープフェイクを検出するための優れた武器にもなり得る。訓練を受けた監視者よりも、AIシステムの方が不審なコンテンツをはるかに細かく、かつ精密に分析できる可能性がある。
現在は“ディープフェイク軍拡競争”の初期段階にある。検出技術がディープフェイクのアルゴリズムの進化を阻止しようとする傍らで、ディープフェイクのアルゴリズムは検出システムや人をだまそうとし続ける。現在のところ企業のセキュリティ部門は総じて、ディープフェイクによるサイバー犯罪に関して傍観者の立場にある。だがその状況は永遠には続かない。セキュリティ部門や意思決定者は、今後の計画を立てる中で、ディープフェイクの問題について検討を始める必要がある。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.