大規模言語モデル(LLM)は、人工知能(AI)モデルの一種だ。ディープラーニング(深層学習)技術と大規模なデータセットを用いて、新しいコンテンツの生成や要約をしたり、次に起こることを予測したりする。(続きはページの末尾にあります)
Gartnerは、2026年に向けた「トップ戦略的テクノロジートレンド」を発表した。生成AIの普及を前提に、AIの責任ある活用と信頼性の確保を両立させることが今後の企業課題になると指摘している。
個人データの取り扱いに厳しいEUで、Metaが個人データを使ってAIモデルを学習させることが許可された例は、EUのAI業界にとって朗報だとの見方がある。厳格なプライバシー規制と革新の両立は可能なのか。
Metaは同社のLLM「Llama」の性能向上のため、EU居住者の個人が公開したデータによる学習を開始した。EUのデータ保護当局はこの動きを問題視し、法廷闘争は最高裁まで続く見通しだ。データ活用はどこまで許されるのか。
「バイブコーディング」など、AI技術によるソースコード生成が広がる中、くすぶり始めた「コーディング学習不要論」。それに異を唱えるのが、Raspberry Pi FoundationのCEOだ。同CEOの真意とは。
AIモデルのトレーニングに無断で使われるWebコンテンツが問題視される中、Cloudflareが「AIクローラー」のアクセス制御機能を標準搭載すると発表。一部の事業者は熱烈に歓迎している。
OpenAIがソフトバンクなどから400億ドルの資金を調達することが分かった。一方、同社への評価の高さに疑問を呈する専門家がいる。何が問題なのか。
「生成AIに関する法規制はこれからどうなるのか」など、2025年、生成AIの導入や活用を進める企業が知っておきたい生成AIのトレンドを5つ紹介する。
中国製AI「DeepSeek」の登場がAI市場に大きな波紋を広げている。これまで同市場で圧倒的な優位を誇っていたAI関連ベンダーへの影響とは。
米議会で、中国のDeepSeekが開発したAIチャットbotサービスを政府機関の端末で利用できないようにする法案が提出された。議員らは安全保障上のリスクを強調するが、別の専門家は根本的な課題を指摘する。
米国政府がバイデン政権下でAI技術の規制を強める中、OpenAIは政府に対し、AI技術の利益を享受するための政策を提言した。一部の専門家はその内容に懐疑的な見方を示している。何が問題なのか。
2024年、「生成AIは人間の仕事を奪う」という見方があった。その予測は当たったのか、それとも外れたのか。専門家の意見を基に整理する。
2024年、エンドユーザーや企業はAI技術にどのような期待を持ち、実際はどのような結果に落ち着いたのか。「AI規則は進んだのか」など、さまざまな予測とその結果を紹介する。
Amazonが「Claude」を開発するAnthropicに40億ドルを追加投資すると発表した。両社の関係強化は、あるベンダーに余波をもたらす可能性がある。
ソーシャルメディア大手のMetaが、AI検索エンジンの開発に取り組んでいる。Googleをはじめとした検索エンジンでの検索は、もう“第一の方法”ではなくなるのか。
2024年、生成AIはどのような進化を遂げるのか。新しいモデルの登場や新規ベンダーの参入など、生成AI市場の動向をアナリストの予測を基に解説する。
生成AI(ジェネレーティブAI)技術は、LLMと密接な関係がある。LLMはテキストベースのコンテンツを生成するために特別に設計されたジェネレーティブAIの一種だからだ。
言語は、あらゆるコミュニケーションの中核となる概念だ。人間が事実や自分の考えを他人に伝えるために、言葉や文法は不可欠だ。AIシステムでも、言語モデルが同様の役割を果たす。言語モデルはAIシステムが新しい言葉を生み出すための仕組みとなる。
言語モデルのルーツは、1966年にさかのぼる。1966年にマサチューセッツ工科大学(MIT)で完成した「ELIZA」は、言語モデルの最初期の例だ。
現代の言語モデルを利用可能にするにはまず、学習データ群を言語モデルに取り込む。次に、取り込んだ学習データから言葉同士の関連性やパターンを推測できるようにする。その後、学習されたデータに基づいて新しい文章や画像といったコンテンツを生成できるようにする。
言語モデルは一般的に、ユーザーが自然言語で命令を入力して結果を生成するAIアプリケーションで使用される。LLMは、AIにおける言語モデルが進化した概念だ。トレーニングと推論に使用するためにより多くの学習データを使用することで、AIモデルの能力が大幅に向上する。
AI技術が成長し続けるにつれ、ビジネスでAI技術を活用することはますます重要になる。機械学習モデルを作成し、ビジネスに適用するプロセスでは、単純さと一貫性を維持することがポイントになる。解決しなければならない課題を明確にすることも、機械学習モデルの正確さを確保することと同様に不可欠だ。
LLMの学習は、複数のステップを踏む。LLMはまず、コーパス(AIモデルが分析可能な形式に構造化された自然言語のデータ)を参照しながら、PB(ペタバイト)規模の学習データで学習する。この際、通常は教師なし学習(例題とその答えを組み合わせた「教師データ」を利用しない学習手法)を用いる。教師なし学習には、構造化されていないデータ とラベル付けされていないデータを利用する。ラベル付けされていないデータでトレーニングすることの利点の一つは、利用可能なデータを用意する負荷を軽減できることだ。この段階で、モデルは異なる単語や概念同士を関係付けられるようになる。
次の学習ステップは、自己教師あり学習(前のステップでトレーニングしたLLMを新しい学習データで再学習させる手法)によるLLMの微調整だ。ここではデータのラベリングをして、モデルがより正確に異なる概念同士を識別できるようにする。その後の工程では、深層学習によってLLMが単語や概念間の関係や結び付きを理解し、認識できるようにする。
訓練したLLMにプロンプト(指示)を入力することで、プロンプトに対して回答したり、新しくテキストを生成したりできるようになる。
LLMは、自然言語処理タスクに幅広く適用できるため、ますます人気が高まっている。以下で利用例を説明する。