人工知能(AI)技術を使った捏造(ねつぞう)動画「ディープフェイク」が組織の新たな脅威になっている。実はディープフェイクは、幾つかの方法によって見破ることができる。どうすればいいのか。
人工知能(AI)技術によって生成された捏造(ねつぞう)動画「ディープフェイク」が広がっている。AI技術が進化したことで、動画に出てくる人物の話し方やしぐさがより自然になり、偽物であるかどうかの判断が一層難しくなりつつある。組織にとってディープフェイクが危険なのは、認証情報といった機密データを盗まれる恐れがあるからだ。ディープフェイクを見破るための6つのポイントをまとめた。
攻撃者はディープフェイクによって、標的となる組織の上長や経営幹部になりすまし、従業員から機密情報を聞き出したり、データを流出させたりする可能性がある。ディープフェイクに立ち向かうには、従業員一人一人が高いセキュリティ意識を持ち、偽コンテンツの「怪しさ」に敏感になることが重要だ。
ディープフェイクを確実に見破るための唯一の方法はない。幾つかの方法を組み合わせれば、コンテンツを信頼できるのかどうかを判断できるようになる。
話している人の表情や体の動きが不自然かどうかをチェックすることでディープフェイクを見破る確率が上がる。直感で表情などがおかしいと感じたら、ディープフェイクだと疑った方がよさそうだ。AI技術が進化したことで、より自然な表情の再現も可能になりつつある。だが、AI技術で人間の脳をだますのはそう簡単ではない。
ディープフェイクでは、ある人物の本物の動画に偽物の音声を組み合わせるというパターンがある。その場合、唇の動きと音声が一致しないことがよくある。唇の動きと音声に微妙なずれがあれば、ディープフェイクを疑おう。
現時点でまばたきの自然な再現はAI技術の不得意な領域だ。そのため、ディープフェイクのまばたきは不自然だったり、そもそも全くなかったりする。動画内人物の目を注意深く観察すれば、偽物を特定できる可能性がある。
ディープフェイクの場合は被写体の周囲にある平面や背景、瞳孔の中に不自然な反射や影があるので、入念にチェックしよう。
大半のディープフェイクでは瞳孔の開き具合が変わらないため、焦点が合っていないような目になる。これが特に当てはまるのは、被写体の目が近くのものや遠くのものに焦点を合わせているときだ。
ディープフェイクでは音声を変えたことを隠すために、「アーティファクト」と呼ばれる人工的なノイズ(騒音)を入れることがある。
AI技術の進化は攻撃者側に限らず、標的になり得る組織にも新たな可能性をもたらす。AI技術を使えば、ディープフェイクを特定する作業を、自動化できると考えられるからだ。AI技術を取り入れたディープフェイク攻撃検知ツールは機械学習によって大量のデータを分析し、上記で取り上げた不自然なパターンを特定する。AI技術は以下のこともできる。
米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。
「2024年上半期に売れたもの」ランキング 身近で意外なあの商品も――インテージ調査
2024年上半期に何がより売れて、売れなかったのか。推定販売金額の伸びから日用消費財の...
年収1000万円超えユーザーの利用比率が高いメディアは? ――オトナル調査
「YouTube」や「LINE」「LinkedIn」「テレビ」など国内24メディアの利用実態を年代や性別...
SEOに「被リンク」はもう意味がない? Google公式コメントや悪質な被リンクへの対処法を解説
「被リンクは今でもSEOに効果があるのか知りたい」「どのような被リンクであれば質が高い...