テキストや画像などを自動生成する「ジェネレーティブAI」を利用する際、特有の“厄介な問題”に気を付ける必要がある。それは何なのか。どう対処すればよいのか。Forrester Researchの見解から探る。
「ジェネレーティブAI」は、テキストや画像などを自動生成する人工知能(AI)技術だ。調査会社Forrester Researchは2022年12月、公式ブログに「Beware of “Coherent Nonsense” When Implementing Generative AI」と題したエントリ(投稿)を公開した。ジェネレーティブAIの実装時には「筋の通った無意味な言葉」に注意すべし――これがエントリの趣旨だ。その真意とは。
ジェネレーティブAIの仕組みは、人の成長の観点から見ると9歳〜11歳の子どもに似ているとエントリは説明する。言い換えると、ジェネレーティブAIは「複数の言葉をもっともらしくつなぎ合わせて論理的な主張を作る」ことはできる。だがジェネレーティブAIが作り話をしているだけなのか、エンドユーザーが聞きたいことに対する答えを提示しているのかは「エンドユーザーには判断が難しい」ということだ。
Forrester Researchは、ジェネレーティブAIの導入に際して次の行為を推奨する。
ジェネレーティブAIが、質問に関する前提条件や背景情報(コンテキスト)を理解できるかどうかを確認することも重要だ。Forrester Researchは、ジェネレーティブAIについて以下を評価することを推奨する。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Z世代が考える「日本が最も力を入れて取り組むべき課題」1位は「ジェンダー平等」――SHIBUYA109 lab.調査
SDGsで挙げられている17の目標のうち、Z世代が考える「日本が最も力を入れて取り組むべき...
高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...
IASがブランドセーフティーの計測を拡張 誤報に関するレポートを追加
IASは、ブランドセーフティーと適合性の計測ソリューションを拡張し、誤報とともに広告が...