GoogleのAIモデル「Gemini」は“まずコストとプロセッサが特徴的”と言える訳:2024年、Googleの生成AI戦略とは【前編】
2023年末にGoogleが発表したAIモデル「Gemini」。Googleの製品にはどのような変化をもたらすのか。GPUではなくGoogle独自プロセッサを利用することで期待できるメリットとは。
Googleは2023年12月、汎用(はんよう)的なAI(人工知能)モデル「Gemini」を発表し、同社のアプリケーションに組み込むことや、関連サービスを提供する計画を明らかにした。
生成AIが注目を集める中で、Googleが生成AIの機能を同社のサービス群に組み込むことは予測可能な動きだった。とはいえ、Geminiにはコスト面で“特異な点”があると指摘するアナリストもいる。どういうことなのか。Geminiの機能面やコスト面での特徴を解説する。
「Gemini」がGoogle製品群にもたらす変化 その特徴は価格にあり?
併せて読みたいお薦め記事
生成AIの関連記事
Geminiには処理性能や用途に応じた3つのモデルがある。そのうちGoogleのAIチャットbot「Bard」で利用できる「Gemini Pro」について、API(アプリケーションプログラミングインタフェース)の提供を開始したと発表した。Webベースの開発者ツール「Google AI Studio」と、機械学習モデル構築支援ツール「Vertex AI」のユーザーが利用できる。
他にもGoogleは、オフィススイート「Google Workspace」で使える生成AIツール「Duet AI」でGeminiを利用できるようにする計画を発表し、以下2つのDuet AI関連の新製品を披露した。
- Duet AI for Developers
- ソースコードの補完や生成、複数の統合開発環境におけるチャット機能など、コーディングの迅速化に役立つAI機能を備える。
- Duet AI in Security Operations
- サイバー攻撃対策機能を持つ。ユーザーは自然言語から生成されたクエリを使用することで、大量のデータを数秒足らずで検索できる他、脅威に対処する時間の短縮につなげることができる。
Duet AI for DevelopersとDuet AI in Security Operationsは、発表時点で一般提供が開始されている。
他にもGoogleは、Jasper AI、Labelbox、LangChainをはじめとするAIコーディングおよびAIナレッジベース関連のパートナー企業25社との取り組みについて紹介した。各パートナー企業は自社製品に特化したデータセットを提供する。これによりDuet AI for Developersのユーザーは、各製品に適したAI技術の支援を受けられる。
独自プロセッサ「TPU」によるコストメリットも
GoogleがGeminiを自社サービス群に組み込むことは予測可能なことであり、驚く話ではない。Futurum Researchでアナリストを務めるマーク・ベキュー氏は、「とりわけ注目すべきは、Geminiの価格モデルだ」と話す。
以下にGemini Proと、AIベンダーOpenAIの大規模言語モデル(LLM)「GPT-4」、AIベンダーAnthropicのチャットbot「Claude」の利用料金を記載する。トークンとはテキストデータを処理する際の基本的な単位で、一般的には4文字程度と考えられる。
- Gemini Pro
- 入力は1000文字当たり0.00025ドル、画像の場合は1枚当たり0.0025ドル。
- 出力は1000文字当たり0.0005ドル。
- リリース版では、3万2000文字分のコンテキストウィンドウ(生成AIがやりとりの中で保持できる、文脈に関する情報量)を備える。
- GPT-4
- 入力は1000トークン当たり0.03ドル。より精度の高い「GPT-4-32K」の場合は0.06ドル。
- 出力は1000トークン当たり0.06ドル。GPT-4-32Kの場合は0.12ドル。
- 8000トークン分、GPT-4-32Kの場合は3万2000トークン分のコンテキストウィンドウを備える。
- Claude
- 「Claude Instant」の場合、入力は100万トークン当たり0.8ドル。より精度の高い「Claude 2.0」「Claude 2.1」の場合は8ドル。
- Claude Instantの場合、出力は100万トークン当たり2.4ドル。Claude 2.0、Claude 2.1の場合は24ドル。
- Claude InstantとClaude 2.0は10万トークン分、Claude 2.1は20万トークン分のコンテキストウィンドウを備える。
調査会社Gartner Researchでアナリストを務めるチラグ・デカテ氏は、Gemini Proの価格が他モデルと比較しても低く抑えられている理由について、GPU(グラフィックス処理装置)に依存しない点を挙げる。「処理をGPUに依存するベンダーの場合、価格にGPUのコストが組み込まれる。一方でGoogleは、自前のAI用インフラを使用して基盤モデルを構築しており、価格を抑えることができている」
Geminiでは、GoogleがAI向けに特化して開発した独自プロセッサ「TPU」(テンソル処理ユニット)をGeminiの学習に使用している。そのためGPUをモデルの学習に使用した場合と比べて、コストを抑えてGemini Proを提供できるという仕組みだ。
後編は、Geminiのマルチモーダル機能への期待や、関連する発表内容を紹介する。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.