Googleが発表した「Gemma」は、オープンソースのAIモデルだ。「Gemini」の開発と同じ技術を使用しているが、例えば「Gemini 1.5 Ultra」と比較するとサイズは小さい。開発の背景には何があるのか。
Googleは2024年2月21日(現地時間)、同社の最新の人工知能(AI)モデル「Gemma」を発表した。Gemmaは、同社がAIモデル「Gemini」の開発に使用した研究成果と技術を基に構築したオープンソースのAIモデルだ。処理性能に応じて「Gemma 2B」と「Gemma 7B」の2種類のサイズがある。
両サイズ共に、事前に学習済みのバージョンとインストラクションチューニング(さまざまなタスクとそれに対応する出力指示を学習させる手法)済みのバージョンがある。開発者はこれらをノートPC、ワークステーション、もしくはクラウドサービス群「Google Cloud Platform」(GCP)で実行できる。
Gemmaのサイズは、1.5兆個のパラメーターを備えるAIモデル「Gemini 1.5 Ultra」と比較すると小さい。なぜ、Googleはオープンソースの小規模モデルを開発したのか。
調査会社Gartnerでアナリストを務めるチラグ・デカテ氏は「Googleの新モデルは、2024年が『大規模言語モデル(LLM)だけでなく小規模言語モデル(SLM)も台頭する年』であることを示している」と述べる。
「価格の安さという点で、企業はLLMだけではなく、自社が抱えるデータ同士を関連付けできるSLMからも価値を生み出すことが求められる。これは重要なことだ」とデカテ氏は強調する。
調査会社Constellation Researchの創設者R・レイ・ウォン氏は、言語モデルが小規模になるほど、ユーザー企業はより精度のレベルを高められると考えている。
「ユーザー企業が実際に何らかの取り組みを始めるときは、こうした小規模の言語モデルを求めるようになる」とウォン氏は述べる。「大規模な言語モデルは、一般に公開されているあらゆる情報を取り込むことになるが、プライベートネットワークには、より小規模な言語モデルを必要とするデータが存在する」
Gemmaは小規模なモデルであるため、Metaのオープンソースの言語モデル「Llama 2」と競争になる可能性があると、AI関連アナリストのマーク・ベキュー氏は述べる。「Googleが発表した『Gemma 2B』は、20億個のパラメーターを備えるモデルだ。これは私が見た中で最小のサイズだ」と同氏は話す。
Metaと競合するにもかかわらず、Googleは依然としてMetaの「Llama 2」をGCPで提供している。このことは、Googleがユーザー企業に対してどのようにAIモデルの選択肢を提示しようと取り組んでいるかを示していると、Gartnerのアナリストであるデカテ氏は付け加える。
「Googleが伝えようとしているのは、エンドユーザーがオープンモデルだけでなく、低コストのモデルにもアクセスできること、そしてGCPのエコシステムを通じてイノベーションを加速できるということだ」(デカテ氏)
新製品・新サービスや調査結果、セキュリティインシデントなど、米国TechTargetが発信する世界のITニュースをタイムリーにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...