Microsoftは小規模言語モデル(SLM)「Phi-3-mini」を2024年4月に発表した。開発に至った背景と、言語モデルの技術的な進展を解説する。
大規模言語モデル(LLM)のパラメーター(学習に使用する変数)の規模が巨大化し、複雑な自然言語処理タスクにおいて驚異的な性能を発揮するようになった。その能力に期待が集まる一方で、企業の間では小規模言語モデル(SLM)への関心も広がっている。
Microsoftは2024年4月、小規模言語モデル(SLM)の「Phi-3-mini」を発表した。MicrosoftがSLMの開発に至った背景や、Phi-3-miniに見られる技術的な進展を解説する。
MicrosoftはPhi-3-miniの他、「Phi-3-small」「Phi-3-medium」を含めて計3つのSLMを発表している。パラメーター数はそれぞれ以下の通り。
Phi-3-miniは、MicrosoftのAI開発ツール「Azure AI Studio」およびAIベンダーHugging FaceのAI開発プラットフォーム「Hugging Face」から利用できる。Phi-3-smallとPhi-3-mediumは今後提供開始予定だ。
企業が生成AIを手軽に使用できる手段として、Amazon Web Services(AWS)やGoogle、Microsoftなど大手ベンダーのサービスを利用することがある。しかし、数千億個ものパラメーターを備えるLLMの利用には、かなりのコストがかかる。このような背景から、企業はLLMのより安価な代替手段としてSLMの利用を検討している。
今回のPhi-3-smallの発表は、「ユーザー企業はより幅広い言語モデルの選択肢を求めている」というMicrosoftの考えを反映したものだという。
MicrosoftでAI担当バイスプレジデントを務めるルイス・バルガス氏は、「LLMではなく、SLMを必要とするユーザー企業もあれば、その両方を組み合わせて使用したいと考えるユーザー企業もある」と話している。
Microsoftの研究者は2024年4月、技術レポ―ト「Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone」を公表。その中で、「Phi-3-miniの性能は、220億個のパラメーターを備える『GPT 3.5』や、450億個のパラメーターを備える『Mixtral 8x7B』に匹敵するレベル」だと主張している。
レポートは、Appleの独自開発SoC(機能統合型半導体チップ)「A16 Bionic」を搭載したスマートフォン「iPhone 14」でPhi-3-miniを実行したことも報告している。メモリ使用量は1.8GBだったという。
Microsoftの研究者は、Phi-3-miniが小型ながらもGPT 3.5などLLMに匹敵すると評価できる要因は、その学習方法にあると説明する。Phi-3-miniの学習には、インターネットから厳選して選んだWebデータと、LLMが生成した合成データを使用した。前者はモデルに一般的な知識を学習させるために、後者は論理的な推論スキルと専門的な知識やスキルを学習させるために使用した。
Phi-3-miniは以下のような用途に使える。
一方で、Phi-3-miniには課題もある。同モデルはLLMと同レベルの言語理解が可能だが、LLMのように大量の情報を格納することはできないという限界がある。Phi-3-miniは2024年6月時点で英語限定ということも注意点だ。
後編は、生成AIのコストパフォーマンスに関する問題を取り上げる。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
「TikTok禁止」は結局、誰得? どうするトランプ氏――2025年のSNS大予測(TikTok編)
米国での存続を巡る議論が続く一方で、アプリ内ショッピングやAI機能の拡大など、TikTok...
ネットの口コミを参考に8割超が商品を購入 最も参考にした口コミの掲載先は?
ホットリンクは、口コミ投稿の経験や購買への影響を調査した結果を発表した。
「生成AIの普及でSEOはオワコン」説は本当か?
生成AIの普及によりSEOが「オワコン」化するという言説を頻繁に耳にするようになりました...