Googleが発表した「Gemma」は、オープンソースのAIモデルだ。「Gemini」の開発と同じ技術を使用しているが、例えば「Gemini 1.5 Ultra」と比較するとサイズは小さい。開発の背景には何があるのか。
Googleは2024年2月21日(現地時間)、同社の最新の人工知能(AI)モデル「Gemma」を発表した。Gemmaは、同社がAIモデル「Gemini」の開発に使用した研究成果と技術を基に構築したオープンソースのAIモデルだ。処理性能に応じて「Gemma 2B」と「Gemma 7B」の2種類のサイズがある。
両サイズ共に、事前に学習済みのバージョンとインストラクションチューニング(さまざまなタスクとそれに対応する出力指示を学習させる手法)済みのバージョンがある。開発者はこれらをノートPC、ワークステーション、もしくはクラウドサービス群「Google Cloud Platform」(GCP)で実行できる。
Gemmaのサイズは、1.5兆個のパラメーターを備えるAIモデル「Gemini 1.5 Ultra」と比較すると小さい。なぜ、Googleはオープンソースの小規模モデルを開発したのか。
調査会社Gartnerでアナリストを務めるチラグ・デカテ氏は「Googleの新モデルは、2024年が『大規模言語モデル(LLM)だけでなく小規模言語モデル(SLM)も台頭する年』であることを示している」と述べる。
「価格の安さという点で、企業はLLMだけではなく、自社が抱えるデータ同士を関連付けできるSLMからも価値を生み出すことが求められる。これは重要なことだ」とデカテ氏は強調する。
調査会社Constellation Researchの創設者R・レイ・ウォン氏は、言語モデルが小規模になるほど、ユーザー企業はより精度のレベルを高められると考えている。
「ユーザー企業が実際に何らかの取り組みを始めるときは、こうした小規模の言語モデルを求めるようになる」とウォン氏は述べる。「大規模な言語モデルは、一般に公開されているあらゆる情報を取り込むことになるが、プライベートネットワークには、より小規模な言語モデルを必要とするデータが存在する」
Gemmaは小規模なモデルであるため、Metaのオープンソースの言語モデル「Llama 2」と競争になる可能性があると、AI関連アナリストのマーク・ベキュー氏は述べる。「Googleが発表した『Gemma 2B』は、20億個のパラメーターを備えるモデルだ。これは私が見た中で最小のサイズだ」と同氏は話す。
Metaと競合するにもかかわらず、Googleは依然としてMetaの「Llama 2」をGCPで提供している。このことは、Googleがユーザー企業に対してどのようにAIモデルの選択肢を提示しようと取り組んでいるかを示していると、Gartnerのアナリストであるデカテ氏は付け加える。
「Googleが伝えようとしているのは、エンドユーザーがオープンモデルだけでなく、低コストのモデルにもアクセスできること、そしてGCPのエコシステムを通じてイノベーションを加速できるということだ」(デカテ氏)
新製品・新サービスや調査結果、セキュリティインシデントなど、米国TechTargetが発信する世界のITニュースをタイムリーにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...