検索
特集/連載

「OpenAI o1」はどう進化した? 気になる信頼性、安全性は?さらなる進化を遂げたOpenAIのLLM【後編】

「OpenAI o1」は、2024年9月にOpenAIが発表したLLM新モデルだ。モデルの実力や、安全面の取り組みと併せて、OpenAI o1を利用する方法を紹介する。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能


 昨今の人工知能(AI)ブームの一因と言えるのが、AIベンダーOpenAIのAIチャットbot「ChatGPT」だろう。ChatGPTは大規模言語モデル(LLM)「GPT」(Generative Pre-trained Transformer)をベースにしており、2024年10月時点では「GPT-3.5」「GPT-4 Omni」(GPT-4o)が標準のLLMとなっている。

 2024年9月、OpenAIは新モデル「OpenAI o1」を発表した。OpenAI o1を使いたいエンドユーザーや企業は、どのような方法でOpenAI o1にアクセスできるのか。機能面での制約や、安全面の取り組みと併せて解説する。

「OpenAI o1」の気になる信頼性や安全性は?

 2024年10月時点で、プレビュー版の「OpenAI o1-preview」と軽量版モデル「OpenAI o1-mini」が利用可能だ。ChatGPT無償版のユーザーはOpenAI o1にアクセスできない。OpenAI o1を利用する方法は大きく4つある。

  • 「ChatGPT Plus」「ChatGPT Team」
    • ChatGPTの有償版サービス「ChatGPT Plus」「ChatGPT Team」のユーザーは、2024年9月から「OpenAI o1-preview」「OpenAI o1-mini」を利用可能となっている。ユーザーはモデルを手動で選択できる。
  • 「ChatGPT Enterprise」「ChatGPT Edu」
    • ChatGPTの教育機関向けプラン「ChatGPT Enterprise」「ChatGPT Edu」のユーザーは、2024年9月からOpenAI o1-previewとOpenAI o1-miniにアクセスできる。
  • API
    • 開発者はOpenAIのAPI(アプリケーションプログラミングインタフェース)経由でOpenAI o1-previewおよびOpenAI o1-miniにアクセスできるが、2024年10月時点では一部の開発者に限定されている。
  • サードパーティー製ツール
    • MicrosoftのAI開発ツール「Azure AI Studio」や、GitHub上でLLMを使用できる「GitHub Models」など、複数のサードパーティー製ツールからOpenAI o1-previewおよびOpenAI o1-miniにアクセスできる。

プレビュー段階では制約も

 2024年10月時点でOpenAI o1はプレビュー版であり、以下のような制約が存在する。

  • Web検索機能、画像を扱うマルチモーダル機能、ファイルアップロード機能などを提供していない。
  • API経由での利用には制限があり、関数呼び出し機能や、ストリーミング(リアルタイムのデータ送信)機能が使えない。チャット機能を調整するためのオプションや設定の範囲が限られている。
  • OpenAI o1は、従来よりも推論プロセスに長い時間をかけるため、回答に時間がかかる傾向にある。
  • ChatGPT PlusおよびChatGPT Teamで利用する場合、2024年9月時点のメッセージ送信回数の上限は、OpenAI o1-previewについては週50回、OpenAI o1-miniは1日50回。
  • OpenAI o1-previewのコストは、100万トークン(注)当たり入力15ドル、出力60ドル。OpenAI o1-miniは入力3ドル、出力12ドル。GPT-4oシリーズと比較すると3倍程度高くなっている。

※注:トークンとはテキストデータを処理する際の基本的な単位で、一般的には4文字程度と考えられる。

OpenAI o1で気になる安全面の工夫

 OpenAIは、OpenAI o1を提供開始したタイミングで、ドキュメント「OpenAI o1 System Card」を公開した。これは、同社がモデル開発中に実施した安全性およびリスク評価の取り組みについて説明したものだ。具体的には、以下のような内容が含まれる。

  • Chain-of-Thought(CoT:思考の連鎖)
    • OpenAI o1は、大規模な強化学習により複雑な推論タスクをこなすことができる。回答を導き出す最適なアプローチを、時間をかけて考えるため、生成過程の誤りを認識して、精度の高い回答を出力できるようになった。その結果、ガイドラインやポリシーに沿った、安全性なコンテンツの生成能力が向上した。
  • ジェイルブレーク(脱獄)耐性の向上
    • OpenAI o1は、「ジェイルブレーク」(脱獄)に対する耐性を大幅に強化している。ジェイルブレークとは、モデルが意図しない使われ方をすることを指す。ジェイルブレーク耐性を測るベンチマーク「StrongREJECT」では、GPT-4oよりも優れたスコアを出している。
  • ポリシーの順守
    • モデルが安全でないコンテンツを拒否できるかどうかを測定するベンチマーク「Challenging Refusal Evaluation」において、OpenAI o1-previewは0.934の「not-unsafe」(危険ではない)スコアを達成している。これはGPT-4oのスコア0.713を上回るものだ。
  • バイアス(偏見)の削減
    • 質疑応答(QA)における公正さを測定するベンチマーク「A Hand-Built Bias Benchmark for Question Answering」において、OpenAI o1-previewは明確な答えを持つ質問に対して94%の正答率を記録した。これはGPT-4oの72%を上回る。人種や性別、年齢による判断バイアスもGPT-4oより少ない結果を示した。
  • 透明性の確保
    • OpenAI o1は回答に至るまでの推論プロセスを要約して生成し、それを基に安全性をチェックできる。10万個のプロンプト(情報を生成するための指示や質問文)をOpenAI o1に渡したところ、事実に基づかない回答の割合はわずか0.79%だったという。その大部分は、意図のある嘘ではなく、推論の誤りによるものだった。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る