大規模言語モデル(LLM)は、人工知能(AI)モデルの一種だ。ディープラーニング(深層学習)技術と大規模なデータセットを用いて、新しいコンテンツの生成や要約をしたり、次に起こることを予測したりする。(続きはページの末尾にあります)
大規模言語モデル(LLM)は、人工知能(AI)モデルの一種だ。ディープラーニング(深層学習)技術と大規模なデータセットを用いて、新しいコンテンツの生成や要約をしたり、次に起こることを予測したりする。(続きはページの末尾にあります)
生成AIによる要約「AI Overviews」が「Google検索」に実装された。これによってエンドユーザーはWebサイトに訪問しなくなることが懸念されていたが、実態は異なるようだ。なぜ「AI要約」だけで満足できないのか。
AIの利用を進める上で、その中核をなす大規模言語モデル(LLM)のパフォーマンスを把握することが大切だ。多彩な機能を備えた可観測性ツールが、LLM運用の新たな基盤として注目を集めている。
米国で、心理相談や心理療法におけるAIチャットbotの活用に“待った”を掛ける法案が制定された。AIチャットbotが相談相手になることで生じるリスクや課題を示す複数の研究を紹介する。
企業での生成AIツール活用が広がる中、そのリスクを認識せずに使い続けると、機密情報流出や法律違反といった思いがけない問題に発展する恐れがある。安全な生成AI利用のために知っておきたい「6つのリスク」とは。
AI生成コンテンツの品質低下につながる、AIの「カニバリズム」(共食い)という新たな問題が明らかになりつつある。AIカニバリズムとは何か、どのような対策を講じるべきなのかを紹介する。
AIエージェントの実装では「分散した社内外のデータをいかに効率良く活用するか」「ガバナンスをどうするか」といった悩みが尽きない。AIエージェントの価値を最大化するためのインフラの条件とは。
生成AIを支える大規模言語モデル(LLM)には課題がある。課題を克服し、企業やエンドユーザーのニーズに応えるための機能や特徴を有するAIモデルを3つ紹介する。
生成AIを支える大規模言語モデル(LLM)の進化が目覚ましい。一方で、無視できない幾つかの課題も明らかになってきた。LLMの概要と、根本に存在する5つの課題を解説する。
LLM「Gemini」がオンプレミス環境で利用できるようになる計画をGoogleが明らかにした。発表からは、生成AI活用のステージが次の段階へ移りつつある状況が垣間見える。
AI導入企業にとって、大規模言語モデル(LLM)に加えて小規模言語モデル(SLM)が有力な選択肢となっている。SLMはただの“軽量版LLM”ではない。その仕組みを解説する。
AI導入では、AIモデルの“大きさ”だけが重要な要素ではない。大規模言語モデル(LLM)と小規模言語モデル(SLM)の比較を通して、現場で生きるSLMの強みを解説する。
Google検索にAI機能「AI Overviews」が新しく組み込まれた。企業がコンテンツマーケティングを考える上で押さえておくべきポイントとは。
軽量で扱いやすいSLM(小規模言語モデル)への関心が高まっている。今後、LLMではなくSLMの重要性が高まるのはなぜなのか。専門家の意見を基に、SLMの実用性と将来性について考察する。
SLM(小規模言語モデル)は、LLMよりもコスト効率の高い選択肢として注目されている。SLMには弱点もあるが、「知識の蒸留」によってそれを克服できる可能性がある。その具体的な仕組みとは。
AIモデルがもっともらしいうそや誤情報を生成する「ハルシネーション」を抑制することは、企業にとって喫緊の課題だ。発生の原因や、ハルシネーションを発生させないための取り組みを整理する。
LLMを用いた業務効率化が進む中で、「人間の仕事は代替される」という声も上がっている。実際のところはどうなのか。IT記者が複数のLLMを使って検証した。
OpenAIが開発した最新のLLM「OpenAI o3」は、従来のAIモデルを大幅に超える性能を誇る。その主要な技術革新と実力を詳しく解説する。
OpenAIの新モデル「OpenAI o3」は、従来のGPT-4oやOpenAI o1を超える存在として注目を集めている。OpenAI o3の技術革新、バージョンごとの違い、利用方法について詳しく紹介する。
LLMの安全対策を回避し、有害な出力を生成させる技法が「ジェイルブレーク」だ。具体的にどのような手口を用いるのか。代表的な手法を3つ解説する。
突如として話題になった中国製AI「DeepSeek」が市場の関心を集める一方で、セキュリティベンダーが同モデルの脆弱性を指摘している。その具体的なリスクとは。
生成AI(ジェネレーティブAI)技術は、LLMと密接な関係がある。LLMはテキストベースのコンテンツを生成するために特別に設計されたジェネレーティブAIの一種だからだ。
言語は、あらゆるコミュニケーションの中核となる概念だ。人間が事実や自分の考えを他人に伝えるために、言葉や文法は不可欠だ。AIシステムでも、言語モデルが同様の役割を果たす。言語モデルはAIシステムが新しい言葉を生み出すための仕組みとなる。
言語モデルのルーツは、1966年にさかのぼる。1966年にマサチューセッツ工科大学(MIT)で完成した「ELIZA」は、言語モデルの最初期の例だ。
現代の言語モデルを利用可能にするにはまず、学習データ群を言語モデルに取り込む。次に、取り込んだ学習データから言葉同士の関連性やパターンを推測できるようにする。その後、学習されたデータに基づいて新しい文章や画像といったコンテンツを生成できるようにする。
言語モデルは一般的に、ユーザーが自然言語で命令を入力して結果を生成するAIアプリケーションで使用される。LLMは、AIにおける言語モデルが進化した概念だ。トレーニングと推論に使用するためにより多くの学習データを使用することで、AIモデルの能力が大幅に向上する。
AI技術が成長し続けるにつれ、ビジネスでAI技術を活用することはますます重要になる。機械学習モデルを作成し、ビジネスに適用するプロセスでは、単純さと一貫性を維持することがポイントになる。解決しなければならない課題を明確にすることも、機械学習モデルの正確さを確保することと同様に不可欠だ。
LLMの学習は、複数のステップを踏む。LLMはまず、コーパス(AIモデルが分析可能な形式に構造化された自然言語のデータ)を参照しながら、PB(ペタバイト)規模の学習データで学習する。この際、通常は教師なし学習(例題とその答えを組み合わせた「教師データ」を利用しない学習手法)を用いる。教師なし学習には、構造化されていないデータ とラベル付けされていないデータを利用する。ラベル付けされていないデータでトレーニングすることの利点の一つは、利用可能なデータを用意する負荷を軽減できることだ。この段階で、モデルは異なる単語や概念同士を関係付けられるようになる。
次の学習ステップは、自己教師あり学習(前のステップでトレーニングしたLLMを新しい学習データで再学習させる手法)によるLLMの微調整だ。ここではデータのラベリングをして、モデルがより正確に異なる概念同士を識別できるようにする。その後の工程では、深層学習によってLLMが単語や概念間の関係や結び付きを理解し、認識できるようにする。
訓練したLLMにプロンプト(指示)を入力することで、プロンプトに対して回答したり、新しくテキストを生成したりできるようになる。
LLMは、自然言語処理タスクに幅広く適用できるため、ますます人気が高まっている。以下で利用例を説明する。