AIが吐き出す“もっともらしい大うそ”に惑わされないための対処法:ジェネレーティブAIへの心構え【第4回】
テキストや画像などを自動生成する「ジェネレーティブAI」を利用する際、特有の“厄介な問題”に気を付ける必要がある。それは何なのか。どう対処すればよいのか。Forrester Researchの見解から探る。
「ジェネレーティブAI」は、テキストや画像などを自動生成する人工知能(AI)技術だ。調査会社Forrester Researchは2022年12月、公式ブログに「Beware of “Coherent Nonsense” When Implementing Generative AI」と題したエントリ(投稿)を公開した。ジェネレーティブAIの実装時には「筋の通った無意味な言葉」に注意すべし――これがエントリの趣旨だ。その真意とは。
ジェネレーティブAIの“もっともらしい大うそ”への対処法はこれだ
併せて読みたいお薦め記事
連載:ジェネレーティブAIへの心構え
- 第1回:ChatGPTが宣告 「人にしかできない仕事がある」時代の終わり
- 第2回:プログラマーが「ソースコード生成AI」を手放せなくなる理由はこれだ
- 第3回:“トランプ大統領”謎の復活 珍答が教える「AIを信じてはいけない理由」
ジェネレーティブAIで何が変わるのか
ジェネレーティブAIの仕組みは、人の成長の観点から見ると9歳〜11歳の子どもに似ているとエントリは説明する。言い換えると、ジェネレーティブAIは「複数の言葉をもっともらしくつなぎ合わせて論理的な主張を作る」ことはできる。だがジェネレーティブAIが作り話をしているだけなのか、エンドユーザーが聞きたいことに対する答えを提示しているのかは「エンドユーザーには判断が難しい」ということだ。
Forrester Researchは、ジェネレーティブAIの導入に際して次の行為を推奨する。
- 使い方を決める際の推奨事項
- ジェネレーティブAIが使用する教師データが信頼できる情報源から入手したものかどうかを確認する。
- 教師データの正確性をITリーダーやビジネスリーダーが評価する。
- 外部がトレーニングしたAIモデルを利用する際の推奨事項
- 教師データ内の潜在的な偏見や交絡因子(特定の事象に影響を与え得る周辺的な因子)を特定できるよう、データソースの監査方法を検討する。
ジェネレーティブAIが、質問に関する前提条件や背景情報(コンテキスト)を理解できるかどうかを確認することも重要だ。Forrester Researchは、ジェネレーティブAIについて以下を評価することを推奨する。
- 過去の質問を参照して、新しい質問を理解できるかどうか
- エンドユーザーの違いを理解して、異なる答えを返すかどうか
Computer Weekly発 世界に学ぶIT導入・活用術
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.