AIワークロードを処理したり、そのためのデータを保管したりする場所は、企業のデジタル戦略に影響を与える。インフラの物理的な場所とデータの配置を検討する上で、何を考慮すべきか。
人工知能(AI)技術の進化と普及に伴い、企業はAIワークロード(AI技術関連のタスク)の効率的な処理に頭を悩ませるようになった。従来のITインフラでは処理し切れない膨大な計算処理や、大量のデータ管理が必要になったためだ。AIモデルの性能を最大限に引き出すためには、どのような配置戦略を取るべきなのか。
企業システムが分散化する中、AIワークロードはマルチクラウド(複数のクラウドサービスを併用しているシステム)やハイブリッドクラウド(クラウドサービスとオンプレミスインフラを併用しているシステム)にまたがる傾向にある。データセンター運営事業を手掛けるDigital Reality Trustで、アジアパシフィック担当ディレクターサービスアーキテクトを務めるダニエル・オング氏は、AIインフラ(AIワークロードのためのインフラ)の物理的ロケーションに影響を与える要因として以下を挙げる。
機密性を要するデータや厳しい規制の対象となるデータは、厳重な管理とセキュリティを適用できるようにする目的で、オンプレミスシステムに置くのが望ましい。一方で機密性を必要としないデータは、コロケーション(IT機器の設置スペースを貸すサービス)やクラウドサービスへの配置が適する。
自動運転などのリアルタイム処理が必要なアプリケーションは、データ転送の遅延を最小限に抑える必要がある。この場合、オンプレミスシステムまたはエッジコンピューティングが有効だ。
ディープラーニング(深層学習)のトレーニングのような計算負荷の高いタスクには、ハイパフォーマンスコンピューティング機能を備えた専用のオンプレミスハードウェアが適する。負荷の低いタスクであれば、クラウドサービスを活用することで、コスト効率を高められる可能性がある。
オンプレミスインフラには、ハードウェアやソフトウェア、継続的なメンテナンスのための初期投資が必要だ。クラウドサービスは従量課金モデルを採用しており、初期コストを抑えることができる。ただし特定のワークロードがCPUやストレージなどのリソースを継続的に必要とする場合、長期的にクラウドサービスを利用すると、オンプレミスシステムのコストを上回る可能性がある。
クラウドサービスを導入することで、必要なときにリソースをスケーリングできるようになる。オンプレミスインフラだと、リソースの増減に手動でハードウェアをアップグレードしなければいけない場合があり、スケールアップやスケールダウンが遅れる可能性がある。
オンプレミスインフラを管理するには、AIワークロードのためのハードウェアとソフトウェアに精通した専任のITスタッフが必要だ。一方でクラウドサービスは、ベンダーがインフラのメンテナンスとスケーリングを実行するため、自社でインフラを管理する手間を削減できる。
Dell Technologiesでアジアパシフィック、日本、中国本土担当のプレジデントを務めるピーター・マーズ氏は、AIインフラは通常、集中型と分散型のインフラが混在していると指摘する。
企業は自社の業務や自社製品/サービスにAI技術を取り入れる際、オンプレミスシステムを使用しつつ、大量のデータを扱うAIワークロードの処理にはクラウドサービスを活用している。「このハイブリッドなアプローチによって、企業はそれぞれのニーズや要件に応じて、集中型と分散型インフラの両方のメリットを享受できる」とマーズ氏は言う。
AIモデルを強化、改善するために必要なデータには課題がある。Oracleの戦略オペレーション担当バイスプレジデントであるエリック・ベルゲンホルツ氏によれば、大量のデータがシステムに分散したままだと、AI技術を効果的に使うことは難しい。
「データは増え続けており、さまざまなソースやフォーマット、保管場所がある。品質も違い、利用するツールも異なる」とベルゲンホルツ氏は言う。
「AIモデルがさまざまな場所に存在するようになった現在は、データの収集または生成場所の近くに、AIモデルや計算リソースを移動させる方が効率的だ」とマーズ氏は説明する。この構成では、データがあるエッジデバイスでAIモデルのトレーニングを実行することになるため、データを集約させておく場所にデータを移動させる必要がなくなる。AIモデルの推論もエッジデバイスで実行できるので、データの集約場所とエッジデバイスが接続されているかどうかにかかわらず、推論が可能になる。
データにAIモデルを近づけるこの手法は、テキストや画像を自動で生成するAI技術「生成AI」の登場によって、慎重なアプローチを必要とするようになった。大規模言語モデル(LLM)をホストしている場所にデータを移動させなければいけなくなったのだ。そうしたデータ移動では慎重なアプローチが必要だとスミス氏は指摘する。AIワークロードが大量のデータを扱うタスクであることを踏まえると、低遅延、高帯域幅(回線容量)、専用ハードウェアが重要になる。
マーズ氏は大容量データの移動に伴う課題として挙げるのは以下の3つだ。
次回は、持続可能性を考慮したAI技術の活用について考える。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
HDDの容量が30TB超になると同時に、ストレージ技術はさまざまな進化を続けている。そうした中でもインタフェースに「SATA」(Serial ATA)を採用したHDDが変わらずに使われ続けている。なぜなのか。
カラオケ業界が直面するデータ増に対応すべく多くのストレージを試し続けた結果、4社27台の製品のメンテナンスに悩まされていたエクシング。この問題を解消すべく、同社は大容量かつコスト削減効果に優れた、新たなストレージを導入した。
メインフレームにおけるデータソート処理は、システム効率に大きく影響する。そこで、z/OSシステムおよびIBM Zメインフレーム上で稼働する、高パフォーマンスのソート/コピー/結合ソリューションを紹介する。
ECと通販システムを統合したパッケージの開発と導入を事業の柱とするエルテックスでは、事業の成長に伴いデータの容量を拡大する必要に迫られていた。そこでストレージを刷新してコスト削減や可用性の向上などさまざまな成果を得たという。
長年にわたり強力かつ安全な基盤であり続けてきたメインフレームシステム。しかし今では、クラウド戦略におけるボトルネックとなりつつある。ボトルネックの解消に向け、メインフレームを段階的にモダナイズするアプローチを解説する。
いまさら聞けない「仮想デスクトップ」と「VDI」の違いとは
遠隔のクライアント端末から、サーバにあるデスクトップ環境を利用できる仕組みである仮想デスクトップ(仮想PC画面)は便利だが、仕組みが複雑だ。仮想デスクトップの仕組みを基礎から確認しよう。
「マーケティングオートメーション」 国内売れ筋TOP10(2025年5月)
今週は、マーケティングオートメーション(MA)ツールの売れ筋TOP10を紹介します。
「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年4月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。
「ECプラットフォーム」売れ筋TOP10(2025年4月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。