なぜ、GoogleはノートPCでも実行可能なAIモデル「Gemma」を発表したのか「Gemini」との違い

Googleが発表した「Gemma」は、オープンソースのAIモデルだ。「Gemini」の開発と同じ技術を使用しているが、例えば「Gemini 1.5 Ultra」と比較するとサイズは小さい。開発の背景には何があるのか。

2024年02月26日 17時00分 公開
[Esther AjaoTechTarget]

関連キーワード

Google | 人工知能


 Googleは2024年2月21日(現地時間)、同社の最新の人工知能(AI)モデル「Gemma」を発表した。Gemmaは、同社がAIモデル「Gemini」の開発に使用した研究成果と技術を基に構築したオープンソースのAIモデルだ。処理性能に応じて「Gemma 2B」と「Gemma 7B」の2種類のサイズがある。

 両サイズ共に、事前に学習済みのバージョンとインストラクションチューニング(さまざまなタスクとそれに対応する出力指示を学習させる手法)済みのバージョンがある。開発者はこれらをノートPC、ワークステーション、もしくはクラウドサービス群「Google Cloud Platform」(GCP)で実行できる。

 Gemmaのサイズは、1.5兆個のパラメーターを備えるAIモデル「Gemini 1.5 Ultra」と比較すると小さい。なぜ、Googleはオープンソースの小規模モデルを開発したのか。

Googleが「Gemma」を開発した背景

 調査会社Gartnerでアナリストを務めるチラグ・デカテ氏は「Googleの新モデルは、2024年が『大規模言語モデル(LLM)だけでなく小規模言語モデル(SLM)も台頭する年』であることを示している」と述べる。

 「価格の安さという点で、企業はLLMだけではなく、自社が抱えるデータ同士を関連付けできるSLMからも価値を生み出すことが求められる。これは重要なことだ」とデカテ氏は強調する。

 調査会社Constellation Researchの創設者R・レイ・ウォン氏は、言語モデルが小規模になるほど、ユーザー企業はより精度のレベルを高められると考えている。

 「ユーザー企業が実際に何らかの取り組みを始めるときは、こうした小規模の言語モデルを求めるようになる」とウォン氏は述べる。「大規模な言語モデルは、一般に公開されているあらゆる情報を取り込むことになるが、プライベートネットワークには、より小規模な言語モデルを必要とするデータが存在する」

 Gemmaは小規模なモデルであるため、Metaのオープンソースの言語モデル「Llama 2」と競争になる可能性があると、AI関連アナリストのマーク・ベキュー氏は述べる。「Googleが発表した『Gemma 2B』は、20億個のパラメーターを備えるモデルだ。これは私が見た中で最小のサイズだ」と同氏は話す。

 Metaと競合するにもかかわらず、Googleは依然としてMetaの「Llama 2」をGCPで提供している。このことは、Googleがユーザー企業に対してどのようにAIモデルの選択肢を提示しようと取り組んでいるかを示していると、Gartnerのアナリストであるデカテ氏は付け加える。

 「Googleが伝えようとしているのは、エンドユーザーがオープンモデルだけでなく、低コストのモデルにもアクセスできること、そしてGCPのエコシステムを通じてイノベーションを加速できるということだ」(デカテ氏)

TechTarget発 世界のITニュース

新製品・新サービスや調査結果、セキュリティインシデントなど、米国TechTargetが発信する世界のITニュースをタイムリーにお届けします。

ITmedia マーケティング新着記事

news047.jpg

SASのCMOが語る マーケティング部門が社内の生成AI活用のけん引役に適している理由
データとアナリティクスの世界で半世紀近くにわたり知見を培ってきたSAS。同社のCMOに、...

news159.jpg

SALES ROBOTICSが「カスタマーサクセス支援サービス」を提供
SALES ROBOTICSは、カスタマーサクセスを実現する新サービスの提供を開始した。

news139.jpg

「Fortnite」を活用  朝日広告社がメタバース空間制作サービスとマーケティング支援を開始
朝日広告社は、人気ゲーム「Fortnite」に新たなゲームメタバース空間を公開した。また、...