生成AIにLLMではなく、むしろ小規模な「SLM」を使うと何がうれしいのか?:小規模言語モデル(SLM)が台頭【後編】
高性能のLLMが次々と登場したことで、生成AIブームは加速した。ただし、中には生成AIを使う場合にLLM以外も選択肢として検討する企業がある。なぜなのか。
テキストや画像を生成する人工知能(AI)技術「生成AI」の導入が加速した背景には、大規模言語モデル(LLM)の性能向上が大きく寄与している。LLMの回答精度や文脈の理解力が飛躍的に進化し、企業もエンドユーザーもその実用性を実感したはずだ。一方で、ビジネスで生成AIを活用する企業は、小規模言語モデル(SLM)などLLM以外の選択肢にも目を向けるようになっている。なぜなのか。
「LLM」ではなく「SLM」を使うと何がうれしい?
併せて読みたいお薦め記事
連載:小規模言語モデル(SLM)が台頭
生成AIとコストに関する記事
各ベンダーがより多機能かつ回答精度の高いLLMの開発に取り組む一方で、一部の専門家からは「大半の企業はLLMの性能を持て余している」といった指摘の声も挙がる。
調査会社Gartnerでアナリストを務めるアルン・チャンドラセカラン氏は、「企業はAIモデルの性能と運用コストとの最適なバランスを取ろうとしている」と話す。
今後企業は、多種多様なAIモデルの中から自社タスクに適するものを選ぶようになるというのが、チャンドラセカラン氏の予測だ。例えば、以下の選択肢がある。
- LLM
- SLM
- オープンソースモデル
- プロプライエタリ(ソースコード非公開)モデル
AIモデルの選択は生成AI活用の最初のステップに過ぎない。AIモデルの出力を監視するツールや、微調整するためのツール、情報漏えいを防ぐためのツールなども選択する必要がある。AIモデルを稼働させるためのGPU(グラフィックス処理装置)搭載サーバやストレージ、ネットワークなどのインフラにかかるコストも考慮する必要がある。
クラウドサービスでAIモデルを稼働させる場合は、そのクラウドベンダーが提供するツールを使用するという選択肢もある。例えば、MicrosoftはAI開発ツール「Azure AI Studio」で生成AIアプリケーション開発用の機能を導入している。LLMの不正確な結果や幻覚(ハルシネーション)を検出し、AIモデルの入力と出力を監視するなど、LLMの運用をサポートする。
AIモデルをクラウドサービスと自社データセンターのどちらで動かすかにかかわらず、企業は生成AIへの投資対効果を評価する枠組みを確立する必要がある。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.