検索
特集/連載

小型モデル「GPT-4o mini」で生成AI市場に“大きな波”が来る理由OpenAI発表と生成AI市場の今後【前編】

OpenAIは小規模言語モデル「GPT-4o mini」を2024年7月に発表した。各ベンダーが「より大きなモデル」の開発を進めてきた中で、なぜ小型のモデルを発表したのか。生成AI市場に起きている変化を解説する。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能 | API | アクセス管理 | 管理者


 人工知能(AI)ベンダーOpenAIは2024年7月、小規模言語モデル(SLM)「GPT-4o mini」を発表した。これまで各ベンダーが「より大きなモデル」の開発に注力してきた中で、小型モデルであるGPT-4o miniが登場したことは、何を意味するのか。AI市場に生じている変化を、GPT-4o miniの特徴と併せて解説する。

小型モデル「GPT-4o mini」がもたらす大きな変化とは

 GPT-4o miniは、軽量であることからコストを抑えて利用できることに加えて、大規模言語モデル(LLM)と同等の回答精度を確保できる可能性があるというメリットを持つ。

 GPT-4o miniのコンテキストウィンドウ(生成AIがやりとりの中で保持する情報量)は最大12万8000トークン(注)で、1リクエスト当たり最大1万6000トークンの出力が可能。前身モデル「GPT-4o」と同じトークン数となる。

※注:トークンとはテキストデータを処理する際の基本的な単位で、英語であれば1トークンは4文字程度と考えられる。

 コストについては、入力は100万トークン当たり0.15ドル、出力は0.6ドル。GPT-4oの入力5ドル、出力15ドルと比べて大幅に価格を抑えた。

 GPT-4o miniは、テキストだけでなく画像も入力できるマルチモーダルモデルであり、将来的にはテキストや画像、動画、音声の入出力が可能となる計画だ。学習データは2023年10月までの情報に基づいている。

「GPT-4o mini」の登場が意味すること

 GPT-4o miniは、SLM市場が拡大する中で登場した。調査会社The Futurum Groupでアナリストを務めるデビッド・ニコルソン氏は、「近年のSLMの需要は、市場のニーズに沿ったものだ」と説明する。

 従来、企業にとってLLMの採用が主流だった。しかし、企業は必ずしもLLMがタスク処理に最適ではないという事実に気付き始めたという。LLMはSLMと比べて、コストや消費電力が高い傾向にあるからだ。

 米TechTarget傘下の調査部門Enterprise Strategy Group(ESG)でアナリストを務めるマーク・べキュー氏は、「GPT-4o miniが登場したことで、1つのモデルに依存する必要はないという潮流が裏付けられた」と言及する。

 べキュー氏によると、モデルは小型化しているだけでなく、特定の業界や分野に特化して使われるようになっている。小型モデルは微調整がしやすいからだ。

 GPT-4o miniの発表以前にも、Microsoftの「Phi」やGoogleの「Gemini Nano」、Mistral AIの「Mistral Small」といったSLMが発表されている。「OpenAIはSLMの分野で後れを取っているように思えるかもしれないが、それは誤りだ」とニコルソン氏は指摘する。「今後、GPT-4o miniが他のLLMを追い越すといった、飛躍的な展開もあり得る」とニコルソン氏は語る。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る