大規模言語モデル(LLM)は、人工知能(AI)モデルの一種だ。ディープラーニング(深層学習)技術と大規模なデータセットを用いて、新しいコンテンツの生成や要約をしたり、次に起こることを予測したりする。(続きはページの末尾にあります)
大規模言語モデル(LLM)は、人工知能(AI)モデルの一種だ。ディープラーニング(深層学習)技術と大規模なデータセットを用いて、新しいコンテンツの生成や要約をしたり、次に起こることを予測したりする。(続きはページの末尾にあります)
生成AIを支える大規模言語モデル(LLM)の進化が目覚ましい。一方で、無視できない幾つかの課題も明らかになってきた。LLMの概要と、根本に存在する5つの課題を解説する。
LLM「Gemini」がオンプレミス環境で利用できるようになる計画をGoogleが明らかにした。発表からは、生成AI活用のステージが次の段階へ移りつつある状況が垣間見える。
AI導入企業にとって、大規模言語モデル(LLM)に加えて小規模言語モデル(SLM)が有力な選択肢となっている。SLMはただの“軽量版LLM”ではない。その仕組みを解説する。
LLMの性能をまとめて評価したい場合に有用なのが、リーダーボードだ。さまざまなLLMの性能を評価した情報が公開されている。LLM選びの参考にできる、主要なリーダーボードを紹介する。
AI導入では、AIモデルの“大きさ”だけが重要な要素ではない。大規模言語モデル(LLM)と小規模言語モデル(SLM)の比較を通して、現場で生きるSLMの強みを解説する。
英司法省の犯罪予測ツール「OASys」は、特定の人種に対して不正確な評価を下すことが公式に認められている。評価された当事者たちが語る問題と、英政府が開発を進める新たな予測ツールの実態とは。
Google検索にAI機能「AI Overviews」が新しく組み込まれた。企業がコンテンツマーケティングを考える上で押さえておくべきポイントとは。
軽量で扱いやすいSLM(小規模言語モデル)への関心が高まっている。今後、LLMではなくSLMの重要性が高まるのはなぜなのか。専門家の意見を基に、SLMの実用性と将来性について考察する。
SLM(小規模言語モデル)は、LLMよりもコスト効率の高い選択肢として注目されている。SLMには弱点もあるが、「知識の蒸留」によってそれを克服できる可能性がある。その具体的な仕組みとは。
AIモデルがもっともらしいうそや誤情報を生成する「ハルシネーション」を抑制することは、企業にとって喫緊の課題だ。発生の原因や、ハルシネーションを発生させないための取り組みを整理する。
LLMを用いた業務効率化が進む中で、「人間の仕事は代替される」という声も上がっている。実際のところはどうなのか。IT記者が複数のLLMを使って検証した。
OpenAIが開発した最新のLLM「OpenAI o3」は、従来のAIモデルを大幅に超える性能を誇る。その主要な技術革新と実力を詳しく解説する。
OpenAIの新モデル「OpenAI o3」は、従来のGPT-4oやOpenAI o1を超える存在として注目を集めている。OpenAI o3の技術革新、バージョンごとの違い、利用方法について詳しく紹介する。
LLMの安全対策を回避し、有害な出力を生成させる技法が「ジェイルブレーク」だ。具体的にどのような手口を用いるのか。代表的な手法を3つ解説する。
突如として話題になった中国製AI「DeepSeek」が市場の関心を集める一方で、セキュリティベンダーが同モデルの脆弱性を指摘している。その具体的なリスクとは。
AIエージェントを外部のデータソースに接続するプロトコル「Model Context Protocol」を、Anthropicが発表した。データソースによって異なる接続方法を一本化できる一方、一部の有識者は懸念も示す。どのような懸念か。
OpenAIが2024年7月に発表した「Enterprise Compliance API」により、規制が厳格な産業でも「ChatGPT」を利用しやすくなる。一方で専門家はOpenAIの今回の発表に関して“ある疑問”を呈している。
OpenAIは小規模言語モデル「GPT-4o mini」を2024年7月に発表した。各ベンダーが「より大きなモデル」の開発を進めてきた中で、なぜ小型のモデルを発表したのか。生成AI市場に起きている変化を解説する。
生成AIや大規模言語モデル(LLM)の導入や開発に着手するには、まず何から決めればいいのか。AI活用を検討する際に確認すべき6つの基本事項を解説する。
生成AI分野に欠かせないのが「LLM」であり、これはOpenAIのチャットbotサービス「ChatGPT」にも用いられている。本稿はLLMの技術を詳しく解説する。
生成AI(ジェネレーティブAI)技術は、LLMと密接な関係がある。LLMはテキストベースのコンテンツを生成するために特別に設計されたジェネレーティブAIの一種だからだ。
言語は、あらゆるコミュニケーションの中核となる概念だ。人間が事実や自分の考えを他人に伝えるために、言葉や文法は不可欠だ。AIシステムでも、言語モデルが同様の役割を果たす。言語モデルはAIシステムが新しい言葉を生み出すための仕組みとなる。
言語モデルのルーツは、1966年にさかのぼる。1966年にマサチューセッツ工科大学(MIT)で完成した「ELIZA」は、言語モデルの最初期の例だ。
現代の言語モデルを利用可能にするにはまず、学習データ群を言語モデルに取り込む。次に、取り込んだ学習データから言葉同士の関連性やパターンを推測できるようにする。その後、学習されたデータに基づいて新しい文章や画像といったコンテンツを生成できるようにする。
言語モデルは一般的に、ユーザーが自然言語で命令を入力して結果を生成するAIアプリケーションで使用される。LLMは、AIにおける言語モデルが進化した概念だ。トレーニングと推論に使用するためにより多くの学習データを使用することで、AIモデルの能力が大幅に向上する。
AI技術が成長し続けるにつれ、ビジネスでAI技術を活用することはますます重要になる。機械学習モデルを作成し、ビジネスに適用するプロセスでは、単純さと一貫性を維持することがポイントになる。解決しなければならない課題を明確にすることも、機械学習モデルの正確さを確保することと同様に不可欠だ。
LLMの学習は、複数のステップを踏む。LLMはまず、コーパス(AIモデルが分析可能な形式に構造化された自然言語のデータ)を参照しながら、PB(ペタバイト)規模の学習データで学習する。この際、通常は教師なし学習(例題とその答えを組み合わせた「教師データ」を利用しない学習手法)を用いる。教師なし学習には、構造化されていないデータ とラベル付けされていないデータを利用する。ラベル付けされていないデータでトレーニングすることの利点の一つは、利用可能なデータを用意する負荷を軽減できることだ。この段階で、モデルは異なる単語や概念同士を関係付けられるようになる。
次の学習ステップは、自己教師あり学習(前のステップでトレーニングしたLLMを新しい学習データで再学習させる手法)によるLLMの微調整だ。ここではデータのラベリングをして、モデルがより正確に異なる概念同士を識別できるようにする。その後の工程では、深層学習によってLLMが単語や概念間の関係や結び付きを理解し、認識できるようにする。
訓練したLLMにプロンプト(指示)を入力することで、プロンプトに対して回答したり、新しくテキストを生成したりできるようになる。
LLMは、自然言語処理タスクに幅広く適用できるため、ますます人気が高まっている。以下で利用例を説明する。