人工知能(AI)技術を使った捏造(ねつぞう)動画「ディープフェイク」が組織の新たな脅威になっている。実はディープフェイクは、幾つかの方法によって見破ることができる。どうすればいいのか。
人工知能(AI)技術によって生成された捏造(ねつぞう)動画「ディープフェイク」が広がっている。AI技術が進化したことで、動画に出てくる人物の話し方やしぐさがより自然になり、偽物であるかどうかの判断が一層難しくなりつつある。組織にとってディープフェイクが危険なのは、認証情報といった機密データを盗まれる恐れがあるからだ。ディープフェイクを見破るための6つのポイントをまとめた。
攻撃者はディープフェイクによって、標的となる組織の上長や経営幹部になりすまし、従業員から機密情報を聞き出したり、データを流出させたりする可能性がある。ディープフェイクに立ち向かうには、従業員一人一人が高いセキュリティ意識を持ち、偽コンテンツの「怪しさ」に敏感になることが重要だ。
ディープフェイクを確実に見破るための唯一の方法はない。幾つかの方法を組み合わせれば、コンテンツを信頼できるのかどうかを判断できるようになる。
話している人の表情や体の動きが不自然かどうかをチェックすることでディープフェイクを見破る確率が上がる。直感で表情などがおかしいと感じたら、ディープフェイクだと疑った方がよさそうだ。AI技術が進化したことで、より自然な表情の再現も可能になりつつある。だが、AI技術で人間の脳をだますのはそう簡単ではない。
ディープフェイクでは、ある人物の本物の動画に偽物の音声を組み合わせるというパターンがある。その場合、唇の動きと音声が一致しないことがよくある。唇の動きと音声に微妙なずれがあれば、ディープフェイクを疑おう。
現時点でまばたきの自然な再現はAI技術の不得意な領域だ。そのため、ディープフェイクのまばたきは不自然だったり、そもそも全くなかったりする。動画内人物の目を注意深く観察すれば、偽物を特定できる可能性がある。
ディープフェイクの場合は被写体の周囲にある平面や背景、瞳孔の中に不自然な反射や影があるので、入念にチェックしよう。
大半のディープフェイクでは瞳孔の開き具合が変わらないため、焦点が合っていないような目になる。これが特に当てはまるのは、被写体の目が近くのものや遠くのものに焦点を合わせているときだ。
ディープフェイクでは音声を変えたことを隠すために、「アーティファクト」と呼ばれる人工的なノイズ(騒音)を入れることがある。
AI技術の進化は攻撃者側に限らず、標的になり得る組織にも新たな可能性をもたらす。AI技術を使えば、ディープフェイクを特定する作業を、自動化できると考えられるからだ。AI技術を取り入れたディープフェイク攻撃検知ツールは機械学習によって大量のデータを分析し、上記で取り上げた不自然なパターンを特定する。AI技術は以下のこともできる。
米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年1月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。
Netflix、さらなる成長戦略は「アドテク自社開発」 広告主のメリットは?
Netflixは2024年第4四半期に1890万人の加入者を増加させ、広告収入を前年同期比で倍増さ...
「THE MODEL」から脱却 それでも売上高5期連続120%以上を維持する私たちがやっていること
マーケティング・セールスの生産性向上を図るため「THE MODEL」を取り入れたいと考える企...