OpenAIの「ディープフェイク対策ツール」に過度な期待はできない訳:うそにだまされる人を減らすのは可能なのか
OpenAIは生成AIを利用したディープフェイク対策ツールの開発をはじめとしたディープフェイク対策に取り組んでいる。選挙での悪用を含めて、ディープフェイクの悪用リスク軽減はできるのか。
米大統領選挙をはじめ、世界中でさまざまな選挙が2024年に予定されている。そうした中でAI(人工知能)技術ベンダーのOpenAIは、ディープフェイク対策ツール「DALLE Detection Classifier」を2024年5月7日(現地時間)に発表した。画像生成AIツールの「DALL・E」で作られた画像を識別できるツールだ。ディープフェイクとは、AI技術を使って合成された、事実と異なる映像や音声、写真を指す。
選挙を前にして、ディープフェイクを悪用して有権者の行動を操作する動きに対する懸念が高まっている。2020年の米大統領選挙では、有権者をだますディープフェイクが出回った。さまざまな生成AIツールが登場したことで、ディープフェイクを作成することが容易になり、その上ディープフェイクの質が向上している。そうした中で発表になったDALLE Detection Classifierに対して、ディープフェイク対策としては懐疑的な見方が示されている。なぜなのか。
「ディープフェイク対策ツール」に過度の期待はできない理由
ディープフェイク対策の最新動向
- それ、AI製? 人には判別不能でも「検出ツール」なら見破れるのか
- 本物そっくりの偽動画「ディープフェイク」を見破る“6つの方法”はこれだ
- 「攻撃専用GPT」が生成する“見破れない詐欺メール” その恐ろし過ぎる現実
調査会社RPA2AI ResearchのCEO兼アナリストのカシュヤップ・コムペラ氏は、DALL・E Detection Classifierの発表について「遅いと言わざるを得ない」としつつも、好意的に受け止めている。「これは歓迎すべき動きだ。AIツールが生成したコンテンツの検出は難しい問題だ。1つの企業が単独で解決できる問題ではない」
主要な画像生成AIツールとして、DALL・E以外にもStability.AIの「Stable Diffusion」やMidjourneyの同名サービス、Adobeの画像編集ツール「Adobe Photoshop」の生成AI機能などが挙げられる。これらのツールは、ディープフェイクの生成に利用される懸念がある。OpenAIをはじめとする生成AIベンダーは、テキストや画像、動画を生成するAIシステムの安全性と信頼性を確保するよう、各国の政府機関や業界団体に要請されている。
OpenAIによると、DALL・E Detection Classifierは98%の検出精度を持つという。同ツールは2024年6月時点で、承認済みのテスターのみに提供されている。ディープフェイクの問題を解消する方法の一つになる可能性はあるものの、誰がこれを使うのか、他の生成AIベンダーが同様のツールを発表するのかは不明だ。
AIコンテンツ検出ベンダーCopyleaksのCEO兼共同創業者であるアロン・ヤミン氏はOpenAIのディープフェイク検出ツールを次のように評価する。「OpenAIのディープフェイク対策の進み方は遅いが、何もしないよりはましだ。しかし技術面では、少し物足りない可能性がある。なぜなら同ツールが検出対象としているのは、DALL・Eで生成された画像だけだからだ」
「ディープフェイクを作り出し、うそのニュースを広めることができる大規模言語モデル(LLM)は他にもたくさんある」とアロン氏は話す。DALL・E Detection Classifierの登場によってディープフェイク対策は一歩進んだと言えるが、完全な解決策ではない。
米TechTargetはDALL・E Detection Classifierの主な機能と考えられる用途についてOpenAIにコメントを求めたが、回答は得られなかった。
米大統領選挙に関して言えば、OpenAIの取り組みは遅過ぎるというわけではなく、むしろ選挙運動の盛り上がりがピークを迎えるタイミングにうまく合わせたという見方もある。調査会社Forrester Researchのアナリストであるオードリー・チー・リード氏は次のように評する。「選挙サイクルを考えると、このようなツールを発表するにはちょうどいいタイミングだ。選挙の数カ月前になって、生成AIによって有権者がどのような影響を受けるかという話題が盛り上がっている」
OpenAIのディープフェイク対策はこれだけではない
OpenAIはDALL・E Detection Classifierの他にも、生成AIによるディープフェイクのリスクを抑えるための幾つかの施策に取り組んでいる。同社はIT業界の標準化団体「Coalition for Content Provenance and Authenticity」(C2PA)に参加している。C2PAは、コンテンツの出典を明らかにして、誤解を招く情報の拡散を防ぐための技術規格「Originator Profile」(OP)を策定する団体だ。
さらにOpenAIはMicrosoftと共同で、AI教育に取り組むNPO(非営利団体)を対象とした200万ドルの基金「Societal Resilience Fund」(社会レジリエンス基金)を発表した。この基金は、高齢者や一般市民に向けてAI技術の悪用を防いだりAI技術のリスクについて学んだりするための教育プログラムを提供するNPOに対して、助成金を提供する。
OpenAIとMicrosoftの基金は適切な組織を対象にしていると、ヤミン氏は評価する。「しかし両社が啓発基金に割り当てた金額は、MicrosoftがOpenAIに約130億ドル(2兆円超)を投資したことに比べると、物足りなく感じられる」と同氏は語る。
これらの取り組みで、生成AI技術に詳しくない人々がディープフェイクの影響を受けるリスクを抑えられる可能性はある。最初にSocietal Resilience Fundの助成を受けるのは高齢者団体AARPのIT教育プログラムを提供する部門であるOlder Adults Technology ServicesとC2PA、政府間組織のInternational Institute for Democracy and Electoral Assistance(民主主義・選挙支援国際研究所)、責任あるAI利用に取り組む非営利連合のPartnership on AI(PAI)だ。「生成AIに詳しくない人々を啓発することは非常に重要だ。ただしAI技術は複雑なため、啓発は難しい仕事になるだろう」とリード氏は見解を語る。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.