なぜ、GoogleはノートPCでも実行可能なAIモデル「Gemma」を発表したのか「Gemini」との違い

Googleが発表した「Gemma」は、オープンソースのAIモデルだ。「Gemini」の開発と同じ技術を使用しているが、例えば「Gemini 1.5 Ultra」と比較するとサイズは小さい。開発の背景には何があるのか。

2024年02月26日 17時00分 公開
[Esther AjaoTechTarget]

関連キーワード

Google | 人工知能


 Googleは2024年2月21日(現地時間)、同社の最新の人工知能(AI)モデル「Gemma」を発表した。Gemmaは、同社がAIモデル「Gemini」の開発に使用した研究成果と技術を基に構築したオープンソースのAIモデルだ。処理性能に応じて「Gemma 2B」と「Gemma 7B」の2種類のサイズがある。

 両サイズ共に、事前に学習済みのバージョンとインストラクションチューニング(さまざまなタスクとそれに対応する出力指示を学習させる手法)済みのバージョンがある。開発者はこれらをノートPC、ワークステーション、もしくはクラウドサービス群「Google Cloud Platform」(GCP)で実行できる。

 Gemmaのサイズは、1.5兆個のパラメーターを備えるAIモデル「Gemini 1.5 Ultra」と比較すると小さい。なぜ、Googleはオープンソースの小規模モデルを開発したのか。

Googleが「Gemma」を開発した背景

 調査会社Gartnerでアナリストを務めるチラグ・デカテ氏は「Googleの新モデルは、2024年が『大規模言語モデル(LLM)だけでなく小規模言語モデル(SLM)も台頭する年』であることを示している」と述べる。

 「価格の安さという点で、企業はLLMだけではなく、自社が抱えるデータ同士を関連付けできるSLMからも価値を生み出すことが求められる。これは重要なことだ」とデカテ氏は強調する。

 調査会社Constellation Researchの創設者R・レイ・ウォン氏は、言語モデルが小規模になるほど、ユーザー企業はより精度のレベルを高められると考えている。

 「ユーザー企業が実際に何らかの取り組みを始めるときは、こうした小規模の言語モデルを求めるようになる」とウォン氏は述べる。「大規模な言語モデルは、一般に公開されているあらゆる情報を取り込むことになるが、プライベートネットワークには、より小規模な言語モデルを必要とするデータが存在する」

 Gemmaは小規模なモデルであるため、Metaのオープンソースの言語モデル「Llama 2」と競争になる可能性があると、AI関連アナリストのマーク・ベキュー氏は述べる。「Googleが発表した『Gemma 2B』は、20億個のパラメーターを備えるモデルだ。これは私が見た中で最小のサイズだ」と同氏は話す。

 Metaと競合するにもかかわらず、Googleは依然としてMetaの「Llama 2」をGCPで提供している。このことは、Googleがユーザー企業に対してどのようにAIモデルの選択肢を提示しようと取り組んでいるかを示していると、Gartnerのアナリストであるデカテ氏は付け加える。

 「Googleが伝えようとしているのは、エンドユーザーがオープンモデルだけでなく、低コストのモデルにもアクセスできること、そしてGCPのエコシステムを通じてイノベーションを加速できるということだ」(デカテ氏)

TechTarget発 世界のITニュース

新製品・新サービスや調査結果、セキュリティインシデントなど、米国TechTargetが発信する世界のITニュースをタイムリーにお届けします。

ITmedia マーケティング新着記事

news060.jpg

Z世代が考える「日本が最も力を入れて取り組むべき課題」1位は「ジェンダー平等」――SHIBUYA109 lab.調査
SDGsで挙げられている17の目標のうち、Z世代が考える「日本が最も力を入れて取り組むべき...

news061.png

高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...

news193.jpg

IASがブランドセーフティーの計測を拡張 誤報に関するレポートを追加
IASは、ブランドセーフティーと適合性の計測ソリューションを拡張し、誤報とともに広告が...