AWSは本当に「生成AIの高負荷に耐えられるクラウド」なのか? AWSに聞いた:クラウドで加速する生成AI活用【後編】
生成AIを活用するときに悩ましいのが、コンピューティング能力の確保だ。AWSは複数のサーバで並列計算する高性能計算(HPC)を効果的に実施する機能を提供している。
Amazon Web Services(AWS)は、テキストや画像などを自動生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)サービスの「Amazon Bedrock」(以下、Bedrock)を提供している。AWSのアジア太平洋地域担当チーフテクノロジストであるオリヴィエ・クライン氏に、同社クラウドサービス群における生成AI活用について詳しく聞いた。
Bedrockをはじめとする生成AIサービスで悩ましいのは、コンピューティング能力の確保だ。AI技術の利用では、トレーニングやデータの処理を効率的に実施する仕組みが欠かせない。AWSユーザーはどのような機能を使えばいいのか。
生成AIに必要なコンピューティング環境
―― 生成AIを効率的に実行する方法についてどのように考えていますか。
併せて読みたいお薦め記事
連載:クラウドで加速する生成AI活用
生成AIでしのぎを削るハイパースケーラー
- クラウドサービスの「新ステージ」を導く“期待のダークホース”とは?
- MicrosoftがデータベースからAIまで「Azure」に集める“真の狙い”は何なのか?
- Alibaba Cloudの生成AI「通義万相」とは? 実行できる画像生成タスクは?
クライン氏 複雑な計算を複数のサーバで並列処理する「高性能計算」(HPC)について考えるときは、ノード(サーバ)間の距離が大事だ。ノード間の距離が遠いほど、ノード間の通信に時間がかかる。
AWSは、クラスタ(連携するサーバの集合単位)管理ツール「AWS ParallelCluster」を提供している。クラスタを構成する際は、一般的には可用性の観点からノード間で一定の距離を確保することが望ましいが、HPCの場合は可能な限り近づけるべきだ。AWS ParallelClusterによって、ノード間の距離を調整しながらクラスタを構成できる。
AWSはインフラに「AWS Nitro System」を実装している。これは仮想マシンサービス「Amazon Elastic Compute Cloud」(EC2)のパフォーマンスを向上させる専用ハードウェアとソフトウェア群だ。サーバの各種機能をオフロード(負荷軽減)できるため、AI技術利用時のパフォーマンスやコスト効率を改善できる。
1点補足すると、LLM(大規模言語モデル)においては処理速度だけでなく、メモリも重要だ。基盤モデルのトレーニングでは学習データを頻繁に読み込ませる必要があるため、メモリの容量を可能な限り確保してデータをキャッシングする構成が効率的だ。一方で学習済みのモデルにはそこまでの容量は必要ない。AWSはBedrockと統合運用できるキャッシングのサービスを複数用意しており、ユーザーの要望に応じて使い分けることができる。
ユーザーはまだ生成AIの初心者
―― 生成AIの導入は、ほとんどの企業にとってまだ初期段階です。ユーザー企業からはどのような悩みや要望が寄せられていますか。
クライン氏 共通するテーマの一つは安全性だ。ユーザーは自社のデータや基盤モデルが外部に流出することを懸念している。AWSの各種サービスはこうした懸念を払拭するように設計されている。AWSでは他社の基盤モデルを利用する際でも、データを取り込むプロセスは非公開で実行可能だ。
「CX」(顧客体験価値)をどうすれば向上できるかという悩みもよく寄せられる。Bedrock のエージェントソフトウェアを使用すれば、LLMを介して事前に定義したタスクを実行できる。例えば、ユーザーとの特定の会話をトリガーにして、ユーザープロファイルを自動的に変更するといったワークフローを組むことが可能だ。
生成AIを自社のシステムにどのように統合するかについての質問も寄せられている。企業は生成AI技術を利用したチャットbotの回答を、わざわざ別システムにコピー&ペーストする必要があるような仕組みは望んでいない。
Computer Weekly発 世界に学ぶIT導入・活用術
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.