検索
特集/連載

AIが吐き出す“もっともらしい大うそ”に惑わされないための対処法ジェネレーティブAIへの心構え【第4回】

テキストや画像などを自動生成する「ジェネレーティブAI」を利用する際、特有の“厄介な問題”に気を付ける必要がある。それは何なのか。どう対処すればよいのか。Forrester Researchの見解から探る。

Share
Tweet
LINE
Hatena

関連キーワード

データ分析 | 業務効率


 「ジェネレーティブAI」は、テキストや画像などを自動生成する人工知能(AI)技術だ。調査会社Forrester Researchは2022年12月、公式ブログに「Beware of “Coherent Nonsense” When Implementing Generative AI」と題したエントリ(投稿)を公開した。ジェネレーティブAIの実装時には「筋の通った無意味な言葉」に注意すべし――これがエントリの趣旨だ。その真意とは。

ジェネレーティブAIの“もっともらしい大うそ”への対処法はこれだ

 ジェネレーティブAIの仕組みは、人の成長の観点から見ると9歳〜11歳の子どもに似ているとエントリは説明する。言い換えると、ジェネレーティブAIは「複数の言葉をもっともらしくつなぎ合わせて論理的な主張を作る」ことはできる。だがジェネレーティブAIが作り話をしているだけなのか、エンドユーザーが聞きたいことに対する答えを提示しているのかは「エンドユーザーには判断が難しい」ということだ。

 Forrester Researchは、ジェネレーティブAIの導入に際して次の行為を推奨する。

  • 使い方を決める際の推奨事項
    • ジェネレーティブAIが使用する教師データが信頼できる情報源から入手したものかどうかを確認する。
    • 教師データの正確性をITリーダーやビジネスリーダーが評価する。
  • 外部がトレーニングしたAIモデルを利用する際の推奨事項
    • 教師データ内の潜在的な偏見や交絡因子(特定の事象に影響を与え得る周辺的な因子)を特定できるよう、データソースの監査方法を検討する。

 ジェネレーティブAIが、質問に関する前提条件や背景情報(コンテキスト)を理解できるかどうかを確認することも重要だ。Forrester Researchは、ジェネレーティブAIについて以下を評価することを推奨する。

  • 過去の質問を参照して、新しい質問を理解できるかどうか
  • エンドユーザーの違いを理解して、異なる答えを返すかどうか

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る