検索
特集/連載

大規模言語モデル(LLM)活用の“勝ち組”になる条件とは?責任あるAI利用とは【第1回】

生成AIツールやその基になる大規模言語モデル(LLM)の活用が広がっている。AI分野の専門家は、生成AIツールやLLMの利用を成功させるのは、トレンドを追う企業ではないと指摘する。

Share
Tweet
LINE
Hatena

 AI(人工知能)ベンダーOpenAIの「ChatGPT」をはじめとする生成AI(テキストや画像などを自動生成するAI技術)ツールの活用機会が広がる一方で、プライバシーの侵害や誇大広告といった生成AIがもたらし得るリスクが社会的に取り上げられている。

 企業が生成AIツールや、その基になる大規模言語モデル(LLM)を使って成功を収めるために必要な点とは何か。成功を収めるのは、トレンドを追って一番乗りを目指すような企業ではない。AI技術ベンダーDataikuで「責任あるAI」(公平性や透明性、安全性の確保を考慮したAI開発)の責任者を務めるトリベニ・ガンジー氏が、ブログに公開したエントリ(投稿)を基に紹介する。

LLMの“勝ち組企業”になる条件

 2023年5月、GoogleのAI部門の大御所で「AIの父」と呼ばれるジェフリー・ヒントン氏が、自身が開発に携わった技術の危険性を世界に警告するために同社を退社したと報じられた。

 同月の米国議会では、IBMのプライバシー・信頼担当の最高責任者、クリスティーナ・モンゴメリー氏が「AI技術は社会にとって有害である可能性があるため、安全性を考慮した介入が必要だ」と話した。IBMはAI技術に対する規制強化への賛成を表明した。同様の懸念を表明する有識者は、ヒントン氏やモンゴメリー氏以外にも存在する。

 LLMを活用してビジネスの成功を収めるのは、長期的な利益を見据えて適切なリスク管理を実施できる企業だ。AI技術の信頼性や説明責任、公正さ、透明性などを考慮したアプローチなしでは、LLMの価値を発揮できないだけでなく、ビジネスがリスクにさらされる可能性がある。

 企業がLLMを安全かつ統制の取れた方法で利用するために役立つのは、責任あるAIに関する倫理的な枠組みや指針だ。そうした枠組みや指針は生成AIだけでなく、全てのAI技術に当てはめることができる。一方でLLM特有の枠組みや指針もあるため、双方をうまく組み合わせる必要がある。


 第2回は、企業が責任あるAIの取り組みを進めるために参考にできる具体的な枠組みを紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る