検索
特集/連載

「RAG」とは何か? なぜ“LLMの限界”を突破できるのか「LLM」×「RAG」を徹底解説【中編】

LLMを使う際にネックとなるのが回答精度の問題だ。この課題を克服する上で「RAG」(検索拡張生成)が役立つ。RAGはどのようにLLMの回答精度を高めるのか。その仕組みを解説する。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能


 大規模言語モデル(LLM)を活用する上で大きな課題となるのが、ハルシネーション(事実に基づかない回答を出力すること)のリスクだ。こうしたLLMの課題克服に役立つ技術として「RAG」(検索拡張生成)が注目されている。RAGはLLMの回答精度向上にどう役立つのか。その仕組みを解説する。

なぜ「RAG」で“LLMの限界”を突破できる?

 RAGは、学習データ以外に外部のデータベースから情報を検索、取得し、LLMが事前学習していない情報も回答できるように補う手法を指す。RAGは追加のトレーニングを必要とせずにLLMの回答精度向上が可能になるため、ユーザー企業が独自でモデルをトレーニングする「ファインチューニング」と比べてコスト効率に優れた手法になる可能性がある。

 RAGの具体的な仕組みは次の通り。

  • 最初に、ユーザーがプロンプト(情報を生成するための指示や質問文)を入力する。
  • LLMがプロンプトを受け取る前に、RAGがプロンプトを取り込み、参照先のデータセットを用いて関連する情報を補足する。
  • 改善したプロンプトをLLMに転送する。プロンプトを補強することで、LLMからより精度の高い回答、つまりより正確でニュアンスに沿った回答を引き出せるようにする。
  • カスタマイズされた回答がユーザーに返される。前述のステップで強化されることで、回答はより正確で関連性が高く、元のクエリにより合致したものとなる。

 ユーザーは独自のデータセットをRAGの参照先として設定することで、LLMの回答を独自に調整できる。そのためRAGは、特に専門知識を必要とする分野で活躍する。医療診断や法的なアドバイス、製品レビューなどがその例だ。

 例えば、「新型コロナウイルス感染症(COVID-19)に関する最新ニュースを要約して」とLLMに指示したとする。LLMは、COVID-19に関する最新データを保持していないため、回答には古いもしくは不正確な内容が含まれる可能性がある。一方で、RAGの参照先にCOVID-19関連の最新ニュースや統計情報が含まれている場合、そこから最も関連性の高い情報を取得し、最新の情報や正しい内容に基づいた情報を反映して、回答を補強できる。


 次回は、RAGに期待される進化について解説する。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る