検索
ニュース

【G検定】ChatGPTは○○的に回答を生成する ○○とは?『ディープラーニングG検定 最強の合格問題集』出張版

AIの基礎から法律・倫理まで幅広い領域が問われる資格「G検定」。試験範囲の中でも重要度の高いテーマを1問ずつ取り上げ、理解の定着に役立つポイントを確認していきます。今回は「『ChatGPT』が事実と異なる回答をする理由」についてです。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 「G検定」(ジェネラリスト検定)は、AI(人工知能)技術全般、特に機械学習やディープラーニングの基礎を体系的に学ぶ資格試験です。AI人材の需要の高まりとともに受験者数は年々増加しており、企業でも従業員への取得を奨励する動きが広がっているそうです。

 本記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』(ヤン・ジャクリン 著)から、G検定の出題範囲を踏まえた問題と解説を1問1答形式で紹介します。今回は「生成AIが事実とは異なる回答を返す仕組み」を押さえる1問です。

書籍紹介

ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]

ディープラーニングG検定(ジェネラリスト)
最強の合格問題集[第2版]

著者:ヤン・ジャクリン

SBクリエイティブ 2,805円

究極の332問+模試2回(PDF)

G検定の問題集の決定版がパワーアップ!

効率的に1発合格をサポートします。

購入ページはこちら


問題

以下の文章を読み、(ア)(イ)の組み合わせとして、最も適切な選択肢を1つ選べ。

ChatGPTなどの文章生成AI は(ア)に回答を生成するため、間違えた内容をあたかも事実のように答える(イ)を起こすことがある。

1.(ア)時系列的(イ)蒸留

2.(ア)恣意的(イ)翻案

3.(ア)確率的(イ)幻覚

4.(ア)論理的 (イ)擬人化


――答えは分かりましたか?



正解と解説

正解は「3.(ア)確率的(イ)幻覚」

 文章生成AIは、学習データにない内容を質問された時など、入力された質問への答えが分からない場合、一番確率が高い答えを返した結果、事実とは異なる内容となってしまうことがあります。この「分からないと時にしれっとウソをつく」というのを「幻覚(ハルシネーション)」と呼びます。これが発生する理由は、以下の通りです。

 言語モデルはテキストの意味を人間のように「理解」することができず、学習をすることで膨大な量のテキストデータの関係性だけを把握します。そして、人間が与えた条件(プロンプト)に対して、学習結果に基づいて確率的に「最もあり得そう」な単語をつなぎ合わせながら文章を生成しています。そうすると、学習データにはないことを聞かれた時などに、確実性が低くても、とにかく無理やり「一番確率が高い文章」を生成します。結果として、存在しないことをAIがあたかも事実のように返答してしまいます。

※この記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』から、アイティメディアが出版社の許可を得て一部加筆編集の上、転載したものです(無断転載禁止)。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る