大規模言語モデル(LLM)は、人工知能(AI)モデルの一種だ。ディープラーニング(深層学習)技術と大規模なデータセットを用いて、新しいコンテンツの生成や要約をしたり、次に起こることを予測したりする。(続きはページの末尾にあります)
MetaがAI検索エンジンの開発に取り組んでいることが明らかになった。Googleをはじめとした検索エンジンが依然使われる中で、これからAI検索エンジンはどのような存在になるのか。検索エンジンとは何が違うのか。
OpenAIが2024年5月に発表した「GPT-4o」は、「GPT-4 Turbo」から何が進化したのか。実際に試してみた結果と併せて解説する。
OpenAIが2024年5月に発表したLLM「GPT-4o」は、「GPT-4 Turbo」から何が進化したのか。押さえておくべきポイントを解説する。
日本語の処理能力の向上を目指して開発されたLLM「tsuzumi2」をNTTが提供開始した。国産LLMは他社のLLMと比較して何が違うのか。
AIスタートアップPoeticsは、商談解析AIサービス「JamRoll」の開発にAWSの「Amazon Bedrock」を活用している。もともと利用していた「GPT」から移行した経緯や、選定の決め手について聞いた。
人事システム「COMPANY」へのRAG実装に取り組むWorks Human Intelligenceが、開発の過程で直面した課題や、それを克服した方法について、AWSのイベントで語った。
OpenAIが「GPT-5」を発表した。CEOのサム・アルトマン氏は、GPT-5について「汎用人工知能(AGI)への重要な一歩」と述べたが、果たしてそれは真実なのか。GPT-5の特徴と利用方法、業界の反応を紹介する。
AI導入で行き詰まる企業が相次ぐ中、Googleの「Gemini 2.5 Flash-Lite」モデルは「軽量・低コスト」という新たな解を提示する。軽量AIに寄せられる期待とは。
Googleは、「Gemini」をCLIから直接操作できるツールとして、開発者向けのオープンソースAIエージェント「Gemini CLI」のプレビュー版を公開した。どのようなタスクに活用できるのか。
生成AIによる要約「AI Overviews」が「Google検索」に実装された。これによってエンドユーザーはWebサイトに訪問しなくなることが懸念されていたが、実態は異なるようだ。なぜ「AI要約」だけで満足できないのか。
AIの利用を進める上で、その中核をなす大規模言語モデル(LLM)のパフォーマンスを把握することが大切だ。多彩な機能を備えた可観測性ツールが、LLM運用の新たな基盤として注目を集めている。
米国で、心理相談や心理療法におけるAIチャットbotの活用に“待った”を掛ける法案が制定された。AIチャットbotが相談相手になることで生じるリスクや課題を示す複数の研究を紹介する。
AIの活用が広がるとともに、データプライバシーや法令順守への懸念が高まっている。そうした中で、ローカル処理が可能な小規模言語モデル(SLM)が企業にとって現実的な選択肢となり始めている。
「シャドーAI」の防止策が有効に機能しているかどうかを測る際に、指標となる4つの質問がある。これらに明確に答えることができるならば、シャドーAIによるリスクを確実に軽減できる。どのような質問なのか。
従業員がIT部門の許可なしにAIツールを使う「シャドーAI」は、企業にとって深刻なリスクだ。IT部門はどうすればシャドーAIを防げるのか。すぐに実施できる4つの対策を説明する。
Gartnerは、2026年に向けた「トップ戦略的テクノロジートレンド」を発表した。生成AIの普及を前提に、AIの責任ある活用と信頼性の確保を両立させることが今後の企業課題になると指摘している。
個人データの取り扱いに厳しいEUで、Metaが個人データを使ってAIモデルを学習させることが許可された例は、EUのAI業界にとって朗報だとの見方がある。厳格なプライバシー規制と革新の両立は可能なのか。
Metaは同社のLLM「Llama」の性能向上のため、EU居住者の個人が公開したデータによる学習を開始した。EUのデータ保護当局はこの動きを問題視し、法廷闘争は最高裁まで続く見通しだ。データ活用はどこまで許されるのか。
生成AI(ジェネレーティブAI)技術は、LLMと密接な関係がある。LLMはテキストベースのコンテンツを生成するために特別に設計されたジェネレーティブAIの一種だからだ。
言語は、あらゆるコミュニケーションの中核となる概念だ。人間が事実や自分の考えを他人に伝えるために、言葉や文法は不可欠だ。AIシステムでも、言語モデルが同様の役割を果たす。言語モデルはAIシステムが新しい言葉を生み出すための仕組みとなる。
言語モデルのルーツは、1966年にさかのぼる。1966年にマサチューセッツ工科大学(MIT)で完成した「ELIZA」は、言語モデルの最初期の例だ。
現代の言語モデルを利用可能にするにはまず、学習データ群を言語モデルに取り込む。次に、取り込んだ学習データから言葉同士の関連性やパターンを推測できるようにする。その後、学習されたデータに基づいて新しい文章や画像といったコンテンツを生成できるようにする。
言語モデルは一般的に、ユーザーが自然言語で命令を入力して結果を生成するAIアプリケーションで使用される。LLMは、AIにおける言語モデルが進化した概念だ。トレーニングと推論に使用するためにより多くの学習データを使用することで、AIモデルの能力が大幅に向上する。
AI技術が成長し続けるにつれ、ビジネスでAI技術を活用することはますます重要になる。機械学習モデルを作成し、ビジネスに適用するプロセスでは、単純さと一貫性を維持することがポイントになる。解決しなければならない課題を明確にすることも、機械学習モデルの正確さを確保することと同様に不可欠だ。
LLMの学習は、複数のステップを踏む。LLMはまず、コーパス(AIモデルが分析可能な形式に構造化された自然言語のデータ)を参照しながら、PB(ペタバイト)規模の学習データで学習する。この際、通常は教師なし学習(例題とその答えを組み合わせた「教師データ」を利用しない学習手法)を用いる。教師なし学習には、構造化されていないデータ とラベル付けされていないデータを利用する。ラベル付けされていないデータでトレーニングすることの利点の一つは、利用可能なデータを用意する負荷を軽減できることだ。この段階で、モデルは異なる単語や概念同士を関係付けられるようになる。
次の学習ステップは、自己教師あり学習(前のステップでトレーニングしたLLMを新しい学習データで再学習させる手法)によるLLMの微調整だ。ここではデータのラベリングをして、モデルがより正確に異なる概念同士を識別できるようにする。その後の工程では、深層学習によってLLMが単語や概念間の関係や結び付きを理解し、認識できるようにする。
訓練したLLMにプロンプト(指示)を入力することで、プロンプトに対して回答したり、新しくテキストを生成したりできるようになる。
LLMは、自然言語処理タスクに幅広く適用できるため、ますます人気が高まっている。以下で利用例を説明する。