画像処理半導体(GPU)「A100」を発表。
人工知能の学習や推論において、従来の「Volta(ボルタ)」世代のGPUに比べて20倍の性能を備えるでつ。
演算処理性能は、例えばFP32(単精度浮動小数点演算)による学習で312テラ(テラは1兆)FLOPS(1秒当たり浮動小数点演算回数)、
INT8(8ビット整数演算)による推論で1248テラOPS(1秒当たり演算回数)に達するでつ。
今回、同GPUを利用したスーパーコンピューターや同コンピューターで構成したクラスターも併せて発表。
A100では、「Ampere(アンペア)」と呼ぶ新しいGPUアーキテクチャーを採用。
A100のトランジスター数は54億で、台湾積体電路製造(TSMC)の7ナノ(ナノは10億分の1)メートル世代の製造プロセスで作製。
GPUのダイ(半導体本体)サイズは826平方ミリメートルで、同世代のプロセッサーとして「業界最大」。
GPU間を接続するインターコネクトに毎秒600ギガバイトの「NVLink」を、メモリーに韓国サムスン電子の
40ギガバイトの「HBM2」を採用。
A100を8個利用した新しいスーパーコンピューター(サーバー)が「DGX A100」。
演算処理性能はINT8で10ペタ(ペタは1000兆)OPS、FP16(半精度浮動小数点演算)で5ペタFLOPSに達するでつ。
GPU間をつなぐスイッチチップ「NVSwitch」を6個採用し、双方向通信の帯域幅は毎秒4.8テラバイト。
ネットワークカード製品で毎秒200ギガビットの「ConnectX-6 VPI」を9枚備えるでつ。
CPUには、米アドバンスト・マイクロ・デバイス(AMD)の「第2世代EPYC」(開発コード名:「Rome(ローマ)」)を採用。
ストレージとして15テラバイトのソリッド・ステート・ドライブ(SSD)を備える。DGX A100の価格は19万9000ドル。
DGX A100を140基使用した次世代クラスター(複数のコンピューターを結合したシステム)「DGX SuperPOD」も発表。
演算処理性能は700ペタFLOPSに達するでつ。
DGX A100でAIデータセンターのランニングコストを従来に比べて大幅に削減できるでつ。
例えば、学習に向けたエヌビディアの従来サーバー「DGX-1」50台と、推論に向けたCPUシステム600台で構成する
データセンターを、5台のDGX A100に置き換えられるでつ。
これにより、大幅な省スペース化と消費電力の削減が可能。
具体的には、ラック数が25で、消費電力630キロワットだったものを、1ラック、28キロワットにできるでつ。
人工知能用のCPUもさらに機能が向上するでつなぁ~
人工知能の学習や推論において、従来の「Volta(ボルタ)」世代のGPUに比べて20倍の性能を備えるでつ。
演算処理性能は、例えばFP32(単精度浮動小数点演算)による学習で312テラ(テラは1兆)FLOPS(1秒当たり浮動小数点演算回数)、
INT8(8ビット整数演算)による推論で1248テラOPS(1秒当たり演算回数)に達するでつ。
今回、同GPUを利用したスーパーコンピューターや同コンピューターで構成したクラスターも併せて発表。
A100では、「Ampere(アンペア)」と呼ぶ新しいGPUアーキテクチャーを採用。
A100のトランジスター数は54億で、台湾積体電路製造(TSMC)の7ナノ(ナノは10億分の1)メートル世代の製造プロセスで作製。
GPUのダイ(半導体本体)サイズは826平方ミリメートルで、同世代のプロセッサーとして「業界最大」。
GPU間を接続するインターコネクトに毎秒600ギガバイトの「NVLink」を、メモリーに韓国サムスン電子の
40ギガバイトの「HBM2」を採用。
A100を8個利用した新しいスーパーコンピューター(サーバー)が「DGX A100」。
演算処理性能はINT8で10ペタ(ペタは1000兆)OPS、FP16(半精度浮動小数点演算)で5ペタFLOPSに達するでつ。
GPU間をつなぐスイッチチップ「NVSwitch」を6個採用し、双方向通信の帯域幅は毎秒4.8テラバイト。
ネットワークカード製品で毎秒200ギガビットの「ConnectX-6 VPI」を9枚備えるでつ。
CPUには、米アドバンスト・マイクロ・デバイス(AMD)の「第2世代EPYC」(開発コード名:「Rome(ローマ)」)を採用。
ストレージとして15テラバイトのソリッド・ステート・ドライブ(SSD)を備える。DGX A100の価格は19万9000ドル。
DGX A100を140基使用した次世代クラスター(複数のコンピューターを結合したシステム)「DGX SuperPOD」も発表。
演算処理性能は700ペタFLOPSに達するでつ。
DGX A100でAIデータセンターのランニングコストを従来に比べて大幅に削減できるでつ。
例えば、学習に向けたエヌビディアの従来サーバー「DGX-1」50台と、推論に向けたCPUシステム600台で構成する
データセンターを、5台のDGX A100に置き換えられるでつ。
これにより、大幅な省スペース化と消費電力の削減が可能。
具体的には、ラック数が25で、消費電力630キロワットだったものを、1ラック、28キロワットにできるでつ。
人工知能用のCPUもさらに機能が向上するでつなぁ~