なぜ、GoogleはノートPCでも実行可能なAIモデル「Gemma」を発表したのか「Gemini」との違い

Googleが発表した「Gemma」は、オープンソースのAIモデルだ。「Gemini」の開発と同じ技術を使用しているが、例えば「Gemini 1.5 Ultra」と比較するとサイズは小さい。開発の背景には何があるのか。

2024年02月26日 17時00分 公開
[Esther AjaoTechTarget]

関連キーワード

Google | 人工知能


 Googleは2024年2月21日(現地時間)、同社の最新の人工知能(AI)モデル「Gemma」を発表した。Gemmaは、同社がAIモデル「Gemini」の開発に使用した研究成果と技術を基に構築したオープンソースのAIモデルだ。処理性能に応じて「Gemma 2B」と「Gemma 7B」の2種類のサイズがある。

 両サイズ共に、事前に学習済みのバージョンとインストラクションチューニング(さまざまなタスクとそれに対応する出力指示を学習させる手法)済みのバージョンがある。開発者はこれらをノートPC、ワークステーション、もしくはクラウドサービス群「Google Cloud Platform」(GCP)で実行できる。

 Gemmaのサイズは、1.5兆個のパラメーターを備えるAIモデル「Gemini 1.5 Ultra」と比較すると小さい。なぜ、Googleはオープンソースの小規模モデルを開発したのか。

Googleが「Gemma」を開発した背景

 調査会社Gartnerでアナリストを務めるチラグ・デカテ氏は「Googleの新モデルは、2024年が『大規模言語モデル(LLM)だけでなく小規模言語モデル(SLM)も台頭する年』であることを示している」と述べる。

 「価格の安さという点で、企業はLLMだけではなく、自社が抱えるデータ同士を関連付けできるSLMからも価値を生み出すことが求められる。これは重要なことだ」とデカテ氏は強調する。

 調査会社Constellation Researchの創設者R・レイ・ウォン氏は、言語モデルが小規模になるほど、ユーザー企業はより精度のレベルを高められると考えている。

 「ユーザー企業が実際に何らかの取り組みを始めるときは、こうした小規模の言語モデルを求めるようになる」とウォン氏は述べる。「大規模な言語モデルは、一般に公開されているあらゆる情報を取り込むことになるが、プライベートネットワークには、より小規模な言語モデルを必要とするデータが存在する」

 Gemmaは小規模なモデルであるため、Metaのオープンソースの言語モデル「Llama 2」と競争になる可能性があると、AI関連アナリストのマーク・ベキュー氏は述べる。「Googleが発表した『Gemma 2B』は、20億個のパラメーターを備えるモデルだ。これは私が見た中で最小のサイズだ」と同氏は話す。

 Metaと競合するにもかかわらず、Googleは依然としてMetaの「Llama 2」をGCPで提供している。このことは、Googleがユーザー企業に対してどのようにAIモデルの選択肢を提示しようと取り組んでいるかを示していると、Gartnerのアナリストであるデカテ氏は付け加える。

 「Googleが伝えようとしているのは、エンドユーザーがオープンモデルだけでなく、低コストのモデルにもアクセスできること、そしてGCPのエコシステムを通じてイノベーションを加速できるということだ」(デカテ氏)

TechTarget発 世界のITニュース

新製品・新サービスや調査結果、セキュリティインシデントなど、米国TechTargetが発信する世界のITニュースをタイムリーにお届けします。

ITmedia マーケティング新着記事

news101.jpg

郵送業務を電子化する理由 3位「テレワークへの対応」、2位「業務の迅速化・省力化」で1位は?――リンクス調査
キャンペーンのお知らせや新商品の紹介のダイレクトメールなど、個人宛てに送付する郵便...

news172.png

WACULが「AIアナリストSEO」を大幅刷新 コンテンツ作成×外部対策×内部対策×CVR改善をワンストップで支援
月額30万円でAI技術を活用したコンテンツ制作、約4万サイトの支援データ、熟練コンサルタ...

news150.jpg

SFAツール「Kairos3 Sales」にモバイルアプリ版 訪問営業の生産性向上へ
モバイルアプリ上で、リアルタイムで営業活動の確認・記録が可能になる。