検索
ニュース

“GPUのNVIDIA”がCPU製品「Grace」を投入、スパコンのAI性能が10倍にGTC 2021 基調講演

NVIDIAは、オンラインで開催中のユーザーイベント「GTC 2021」の基調講演において、巨大AIモデルやHPCのワークロードを処理するデータセンター向けのCPU「Grace」を発表した。Armの次世代サーバ向けプロセッサコアを搭載するGraceなどを用いたAIシステムは、x86ベースのCPUを用いる既存のAIシステムと比べて大幅な性能向上を実現するという。

Share
Tweet
LINE
Hatena

 NVIDIAは2021年4月12日(現地時間)、オンラインで開催中のユーザーイベント「GTC(GPU Technology Conference) 2021」(開催期間:同年4月12〜16日)の基調講演において、巨大AI(人工知能)モデルやHPCのワークロードを処理するデータセンター向けのCPU「Grace」を発表した。Armの次世代サーバ向けプロセッサコアを搭載するGrace、NVIDIAのGPUとインターコネクト技術「NVLink」、次世代メモリのLPDDR5xを組み合わせるなどしたAIシステムは、x86ベースのCPUを用いる既存のAIシステムと比べて大幅な性能向上を実現するという。

NVIDIAのデータセンター向けCPU「Grace」
NVIDIAのデータセンター向けCPU「Grace」(クリックで拡大) 出典:NVIDIA
NVIDIAのジェンスン・フアン氏
NVIDIAのジェンスン・フアン氏。今回の基調講演も、コロナ禍での開催となった2020年5月からおなじみの“キッチンキーノート”スタイル

 基調講演に登壇したNVIDIA CEOのジェンスン・フアン(Jensen Huang)氏は「AI技術が進化する中で、取り扱うAIモデルは大規模化している。それら巨大AIモデルの大量のデータをコンピュータシステムで処理する上で、データセンターのさまざまな用途に対応してきたx86ベースのシステムがボトルネックになりつつある」と語る。

 フアン氏がボトルネックと指摘するのは、x86ベースシステムにおける帯域幅の問題だ。NVIDIAが市販しているx86ベースのDGXのシステム(1CPU分)を例にとると、AI処理の中核を担う4つのGPUは、それぞれが2TB/sで動作する超高速メモリのHBM2eと接続されており、総計で8TB/sもの帯域幅を持つ。一方、メインメモリであるDDR4とCPUの間の帯域幅は200GB/sにすぎない。もしCPUとメモリ間の帯域幅を、チャネル数を増やすことで広げても、CPUとGPU間の接続がPCI-Expressなので、最新のGen4でも1レーン当たりの帯域幅が16GB/sとなり、メモリとGPU間の帯域幅は64GB/sにとどまってしまう。「大量のデータを処理するためにシステムが持つ全てのメモリを有効活用するには、このボトルネックとなっている帯域幅を広げる必要がある」(フアン氏)。

x86ベースシステムにおける帯域幅の問題
「DGX」の1CPU分のシステム構成。このようなx86ベースシステムで大量データを処理しようとすると帯域幅がボトルネックになる(クリックで拡大) 出典:NVIDIA

 メモリとGPU間の帯域幅を大幅に拡大するべくNVIDIAが開発を進めているのがGraceである。Graceを用いるシステムでは、CPUとメモリ、CPUとGPU、CPUとCPUの間をNVLinkで接続することでそれぞれ500GB/sの帯域幅を確保する。これにより、メモリとGPU間の帯域幅は従来比で30倍となる2TB/sを実現できるというわけだ。

Graceを用いるシステムでは、x86ベースシステムと比べて大幅に帯域幅を拡大できる
Graceを用いるシステムでは、x86ベースシステムと比べて大幅に帯域幅を拡大できる(クリックで拡大) 出典:NVIDIA

 また、Graceに採用する次世代サーバ向けプロセッサコア(次世代アーキテクチャの「Armv9」ベースとみられる)により、CPU性能の大幅な向上も見込んでいる。現状のDGXのCPUは、AMDの「EPYC 7742」をデュアル構成で搭載しており、CPU性能を示すSPECintは450である。これに対して、Graceの1CPU当たりのSPECintは300で、8CPU構成となるDGXライクなシステムのSPECintは2400に達する。

 なお、スイス国立コンピューティングセンター(CSCS)は、このGraceとNVIDIAの次世代GPUを搭載するスーパーコンピュータ「ALPS」を2023年に稼働させる計画だ。そのAI処理性能は、現在スパコンランキング1位の「富岳」の10倍以上となる20エクサFLOPSを想定している。Graceそのものの市場投入も、同時期となる2023年前半を予定している。

CSCSが計画しているスーパーコンピュータ「ALPS」
CSCSが計画しているスーパーコンピュータ「ALPS」。「Grace」とNVIDIAの次世代GPUの採用で、20エクサFLOPSものAI処理性能を想定している(クリックで拡大) 出典:NVIDIA

CPUがコンピューティングの3つ目の基礎技術に

 NVIDIAと言えばGPUのイメージが強いが、2020年10月に新たなカテゴリーの製品としてDPU(Data Processing Unit)の「BlueField」を発表している。今回のGTC 2021では、データ転送速度が400Gbpsとなる「BlueField-3」を2022年第1四半期に投入する方針を打ち出した。

 その上でフアン氏は「パワフルなArmベースCPUのGraceは、コンピューティングの3つ目の基礎技術になる。今後、NVIDIAのデータセンター向けのロードマップは、GPU、CPU、DPUという3つのチップを、それぞれ2年ごとに進化させていくのが基本のリズムになる。x86プラットフォームに集中して技術を展開する年もあるだろう」と述べ、CPUアーキテクチャとしてArmだけでなくx86にもコミットし続ける姿勢を見せた。

NVIDIAのデータセンター向け製品のロードマップ
NVIDIAのデータセンター向け製品のロードマップ。GPU、CPU、DPUという3つのチップで展開していく(クリックで拡大) 出典:NVIDIA

⇒その他の「人工知能ニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る