検索
特集/連載

消費電力をIAサーバ比90%削減するARMサーバの可能性ARMサーバ入門【前編】

最先端のサーバで徐々に採用されてきたARMプロセッサ。その要因は、GoogleやFacebookなどのクラウド事業者が求めるデータセンター要件が急速に変化したことにある。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 新世代のサーバデータセンターに出現した。ARMプロセッサを搭載したこれらの新サーバは、極めて高い拡張性を実現する一方で、電力消費と冷却要求を低く抑えられるのが魅力だ。こういった可能性を秘めたARMプロセッサだが、データセンターで本格的に普及するまでには至っていない。今回から2回にわたり、ARMサーバの現時点でのメリットと限界について解説するとともに同技術の今後の展望を示す。

ARMプロセッサの歴史は意外と古い

 従来型のプロセッサは、数百種類の命令を処理できる汎用型デバイスだといえる。こうした汎用型プロセッサの問題は「多数の命令に対応するのに必要な無数の論理条件を処理するため、数億個ものトランジスタが必要になること」だ。これはとりもなおさず、製造コストが高くなることを意味する。最近の米IntelXeonプロセッサは、1個当たり1000ドル以上もするのが普通だ。それよりも深刻な問題なのが、個々のプロセッサの電力・冷却要求が高いことだ。これはデータセンターサーバの運用コストの増加につながる。

 それとは対照的に、RISC(Reduced Instruction Set Computer)アーキテクチャをベースとするARMプロセッサは、これらの障害の多くを克服できる。命令の種類が少なくなれば、プロセッサはシンプルかつ安価になる。消費電力もはるかに少なく、熱放出も極めてわずかだ。トランジスタの数が減少すれば、プロセッサのパフォーマンスも向上する。命令処理に必要な論理段階が少なくなるからだ。実際、ARMプロセッサは最近登場したものではない。スマートフォンやプリンタ、デジタルカメラなどの商用エレクトロニクス製品に何十年も前から採用されてきた(関連記事:ARMアーキテクチャはどのように進化してきたのか?)。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る