検索
特集/連載

超できるけど「危険なAI」とごく普通な「安パイAI」 あなたの好みは?AIの法的リスクを回避【後編】

生成AIの著作権問題が浮き彫りになっている。AIベンダーは安全性を確保する対策を講じるものの、それが必ずしもユーザーの獲得につながるわけではない。ユーザーが生成AIを選ぶ際に直面するジレンマとは。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能 | マーケティング


 テキストや画像などを自動生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)の活用範囲は、マーケティング用の広告コピーや画像の作成など多岐にわたる。

 一方で深刻化するのが、著作権侵害といった生成AIの法的リスクに対する懸念だ。2024年1月、デジタル素材を提供するGetty Imagesが生成画像の安全な商用利用を保証する「Generative AI by iStock」を発表するなど、サービス提供事業者が対策に乗り出す動きがある。こうした法的リスクやその対策を考慮したサービスが出てくる中で、ユーザーはある“ジレンマ”に直面する。

「安全な生成AI」と「リアルさのある画像」

 調査会社Gartnerでアナリストを務めるイッサ・ケレマンス氏は、「ユーザーは生成AIを選ぶ際に、法的な安全性と画像品質の追求とをてんびんに掛けることになる」と話す。例えば、「Midjourney V6」のようなリアルさや高解像度のある画像を生成するAIモデルと、Getty Imagesの「Generative AI by iStock」のような、品質は劣るが倫理的にトレーニングされたAIモデルがある場合、ユーザーはどちらを選ぶだろうか。

 企業が法的な安全性を犠牲にし、リアルさを追求してAIモデルを選んだ場合、物議を醸す可能性がある。一方でGenerative AI by iStockのような、安全性が保証されたAIモデルを選択したところで、安全性や法的補償について実際にどれほどの効果をユーザーにもたらすのかは不明瞭だ。

 著作権侵害対策の仕組みは、Adobeの画像生成AIサービス「Adobe Firefly」をはじめとする他社ツールにも組み込まれている。CMO(最高マーケティング責任者)は用途や機能、予算に応じて、最適な生成AIツールを選ぶ必要がある。

 将来的には、安全性をうたう生成AIが選択肢として主流になることは十分にあり得る。もしくはAIモデルの学習データには著作権が適用されなくなる可能性もある。「企業は法律の動向に注視しつつ、リアルさの追求と倫理的配慮の絶妙なバランスを見つけていくことが重要だ」とケレマンス氏はアドバイスする。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る