AI導入企業にとって、大規模言語モデル(LLM)に加えて小規模言語モデル(SLM)が有力な選択肢となっている。SLMはただの“軽量版LLM”ではない。その仕組みを解説する。
大規模言語モデル(LLM)だけでなく、小規模言語モデル(SLM)も現場で広く活用されるようになっている。SLMは、単なる“軽量版LLM”ではない。軽量でありながら賢く振る舞うことができるSLMの仕組みと、SLMを生み出すモデル圧縮手法までを解説する。
LLMと同様、SLMのベースとなるのは深層学習モデル「Transformer」ベースのアーキテクチャだ。Transformerでは、エンコーダーという仕組みを用いて、データのシーケンス(並び)を数値化された埋め込みベクトル変換する。このベクトルこそが、AIモデルが言語の意味を理解するための基盤となり、トークン(言語の最小単位)の意味や位置関係をモデル内部で定義する役割を果たす。
トークンとは、大きなデータセットの中の最小構成要素のことで、単語や文字、フレーズなどを指す。テキストを処理する際、文章は複数のトークンに分割され、例えば単語や句読点の一つ一つが個別のトークンとして扱われる。このトークン化のプロセスは、AIモデルがデータを処理するための準備に不可欠なステップとなる。
Transformerは以下のようなさまざまな場面で活用されている。
LLMをベースにSLMを構築する際、「モデル圧縮」(model compression)という手法を用いて、既存のLLMからサイズを小さくしたモデルを作り出す。このプロセスにおける圧縮手法の精度や工夫の違いが、SLMの性能を大きく左右する可能性がある。
モデル圧縮とは、元の大規模モデルから不要な部分を削ぎ落として小型化する一連の技術の総称だ。この分野にはさまざまな技法があり、以下のような手法が代表的だ。
これらの技術は、それぞれが専門書1冊分に相当する奥深い分野だ。ここでは、低ランク分解について簡単に紹介しよう。
低ランク分解とは、重み行列(どの要素がどれくらい重要か、どう関係しているかを表す数字の集まり)を、より小さな行列に分解して近似的に再現する技法だ。これにより、モデルが保持する情報の本質を保ちつつ、サイズや演算量を大幅に削減することができる。
米国Informa TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
「テレワークでネットが遅い」の帯域幅じゃない“真犯人”はこれだ
ネットワークの問題は「帯域幅を増やせば解決する」と考えてはいないだろうか。こうした誤解をしているIT担当者は珍しくない。ネットワークを快適に利用するために、持つべき視点とは。
「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。
「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。
「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...