AIの基礎から法律・倫理まで幅広い領域が問われる資格「G検定」。試験範囲の中でも重要度の高いテーマを1問ずつ取り上げ、理解の定着に役立つポイントを確認していきます。今回は「『ChatGPT』が事実と異なる回答をする理由」についてです。
「G検定」(ジェネラリスト検定)は、AI(人工知能)技術全般、特に機械学習やディープラーニングの基礎を体系的に学ぶ資格試験です。AI人材の需要の高まりとともに受験者数は年々増加しており、企業でも従業員への取得を奨励する動きが広がっているそうです。
本記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』(ヤン・ジャクリン 著)から、G検定の出題範囲を踏まえた問題と解説を1問1答形式で紹介します。今回は「生成AIが事実とは異なる回答を返す仕組み」を押さえる1問です。
ディープラーニングG検定(ジェネラリスト)
最強の合格問題集[第2版]
著者:ヤン・ジャクリン
SBクリエイティブ 2,805円
究極の332問+模試2回(PDF)
G検定の問題集の決定版がパワーアップ!
効率的に1発合格をサポートします。
以下の文章を読み、(ア)(イ)の組み合わせとして、最も適切な選択肢を1つ選べ。
ChatGPTなどの文章生成AI は(ア)に回答を生成するため、間違えた内容をあたかも事実のように答える(イ)を起こすことがある。
1.(ア)時系列的(イ)蒸留
2.(ア)恣意的(イ)翻案
3.(ア)確率的(イ)幻覚
4.(ア)論理的 (イ)擬人化
――答えは分かりましたか?
文章生成AIは、学習データにない内容を質問された時など、入力された質問への答えが分からない場合、一番確率が高い答えを返した結果、事実とは異なる内容となってしまうことがあります。この「分からないと時にしれっとウソをつく」というのを「幻覚(ハルシネーション)」と呼びます。これが発生する理由は、以下の通りです。
言語モデルはテキストの意味を人間のように「理解」することができず、学習をすることで膨大な量のテキストデータの関係性だけを把握します。そして、人間が与えた条件(プロンプト)に対して、学習結果に基づいて確率的に「最もあり得そう」な単語をつなぎ合わせながら文章を生成しています。そうすると、学習データにはないことを聞かれた時などに、確実性が低くても、とにかく無理やり「一番確率が高い文章」を生成します。結果として、存在しないことをAIがあたかも事実のように返答してしまいます。
※この記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』から、アイティメディアが出版社の許可を得て一部加筆編集の上、転載したものです(無断転載禁止)。
Copyright © ITmedia, Inc. All Rights Reserved.
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...