【G検定】ChatGPTは○○的に回答を生成する ○○とは?:『ディープラーニングG検定 最強の合格問題集』出張版
AIの基礎から法律・倫理まで幅広い領域が問われる資格「G検定」。試験範囲の中でも重要度の高いテーマを1問ずつ取り上げ、理解の定着に役立つポイントを確認していきます。今回は「『ChatGPT』が事実と異なる回答をする理由」についてです。
「G検定」(ジェネラリスト検定)は、AI(人工知能)技術全般、特に機械学習やディープラーニングの基礎を体系的に学ぶ資格試験です。AI人材の需要の高まりとともに受験者数は年々増加しており、企業でも従業員への取得を奨励する動きが広がっているそうです。
本記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』(ヤン・ジャクリン 著)から、G検定の出題範囲を踏まえた問題と解説を1問1答形式で紹介します。今回は「生成AIが事実とは異なる回答を返す仕組み」を押さえる1問です。
書籍紹介
ディープラーニングG検定(ジェネラリスト)
最強の合格問題集[第2版]
著者:ヤン・ジャクリン
SBクリエイティブ 2,805円
究極の332問+模試2回(PDF)
G検定の問題集の決定版がパワーアップ!
効率的に1発合格をサポートします。
問題
以下の文章を読み、(ア)(イ)の組み合わせとして、最も適切な選択肢を1つ選べ。
ChatGPTなどの文章生成AI は(ア)に回答を生成するため、間違えた内容をあたかも事実のように答える(イ)を起こすことがある。
1.(ア)時系列的(イ)蒸留
2.(ア)恣意的(イ)翻案
3.(ア)確率的(イ)幻覚
4.(ア)論理的 (イ)擬人化
――答えは分かりましたか?
正解と解説
正解は「3.(ア)確率的(イ)幻覚」
文章生成AIは、学習データにない内容を質問された時など、入力された質問への答えが分からない場合、一番確率が高い答えを返した結果、事実とは異なる内容となってしまうことがあります。この「分からないと時にしれっとウソをつく」というのを「幻覚(ハルシネーション)」と呼びます。これが発生する理由は、以下の通りです。
言語モデルはテキストの意味を人間のように「理解」することができず、学習をすることで膨大な量のテキストデータの関係性だけを把握します。そして、人間が与えた条件(プロンプト)に対して、学習結果に基づいて確率的に「最もあり得そう」な単語をつなぎ合わせながら文章を生成しています。そうすると、学習データにはないことを聞かれた時などに、確実性が低くても、とにかく無理やり「一番確率が高い文章」を生成します。結果として、存在しないことをAIがあたかも事実のように返答してしまいます。
※この記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』から、アイティメディアが出版社の許可を得て一部加筆編集の上、転載したものです(無断転載禁止)。
Copyright © ITmedia, Inc. All Rights Reserved.
![ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]](https://image.itmedia.co.jp/tt/news/2512/05/yo0490_g-kentei_W190.jpg)
