“偽CEO”の声にだまされ2000万円以上の被害も 「ディープフェイク」の対処法GANのリスクを超えて【後編】

敵対的生成ネットワーク(GAN)を使って本物を装い、偽造された動画や画像、音声を指す「ディープフェイク」にまつわるリスクにどう向き合えばいいのか。

2020年04月02日 05時00分 公開
[Rowena LindsayTechTarget]

関連キーワード

機械学習


 敵対的生成ネットワーク(GAN:Generative Adversarial Network)には善意で好意的な用途がある。だが話題になることが多いのは、GANを使って本物を装い、偽造された動画や画像、音声を指す「ディープフェイク」にまつわるリスクの方だ。

 2019年、ある企業がディープフェイクによって24万3000ドル(約2600万円)を盗み出される窃盗事件があった。この事件は、犯人が業務時間終了後にオフィスに電話をかけ、音声ディープフェイクを使ってこの企業のCEOの声を模し、延滞料金の発生を防ぐために金銭を振り込むよう担当責任者に依頼したものだった。

 こうしたディープフェイクはますます広がっており、複数のソーシャルメディア企業は対処に取り組んでいる。GoogleやTwitter、Facebook、Redditは、それぞれが提供するサービスにおいてディープフェイクがもたらすリスクと言論の自由のバランスを取るために、ここ数カ月、ポリシーにさまざまな変更を加えている。とはいえ、具体的にディープフェイクに対する保護となる技術的な解決策はまだない。

ではどう対処すべきか

ITmedia マーケティング新着記事

news130.jpg

“AI美女”を広告に起用しない ユニリーバ「Dove」はなぜそう決めたのか
Unilever傘下の美容ケアブランド「Dove」は、「Real Beauty」の20周年を機に、生成AIツー...

news099.png

有料動画サービス 34歳以下では過半数が利用経験、4割は1日1回以上利用
「ニールセン・ビデオコンテンツ アンド アド レポート 2024」を基に、テレビ画面での動...

news171.png

2024年のGW予算は横ばい 賃上げよりも物価高と円安の影響が勝る?――インテージ調査
インテージが全国の15歳から79歳の男女を対象に実施したゴールデンウイークに関する調査...