検索
特集/連載

ChatGPTの中核「GPT」は実は1つじゃない それぞれの違いとは?「ChatGPT」と「GPT」の違い【第5回】

OpenAIの「ChatGPT」の中核を成すLLM「GPT」。その種類は1つではなく、それぞれに特徴がある。GPTにはどのような種類があるのか。それらの主な違いとは。

Share
Tweet
LINE
Hatena

 人工知能(AI)技術ベンダーOpenAIのAIチャットbot「ChatGPT」は、LLM(大規模言語モデル)「GPT」(Generative Pre-trained Transformer)をベースにしている。GPTにはさまざまな種類があり、それぞれに特徴がある。どのような違いがあるのか。

こんなにある「GPT」 それぞれの主な違いは?

 OpenAIのサービス料金紹介ページ(Pricing)には、GPTのバージョンである「GPT-4」の他、「GPT-3」をベースにしたLLM「InstructGPT」が掲載されている。数あるOpenAIのLLMの中には、ChatGPTが使うものと、そうではないものがある。

原稿執筆時点では、ChatGPTが使用するLLMのうち、ユーザー企業が独自のトレーニングである「ファインチューニング」(Fine-tuning)を施すことができるのはGPT-3のみだ。「gpt-3.5-turbo」やGPT-4は、ファインチューニングができない。ファインチューニングでは、例えばコールセンターでよくある質問への回答の精度を高めるために、質問と回答の組み合わせを学習させる。

 それぞれのLLMは、教師データの新しさが違う。gpt-3.5-turboとGPT-4は、2021年9月に最終更新された教師データでトレーニング済みだ。GPT-3のバージョンでは「text-davinci-003」など一部は2021年6月、それ以外は2019年10月が最終更新となっている。教師データが新しいほど、回答の精度を高めやすくなる。そのため教師データの新しさは、GPTを評価するための重要な指標だ。


 次回は、コストの観点からChatGPTとGPTの違いに焦点を当てる。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る