2020.11.17 11:45 更新
2020.11.16 配信
Ampereアーキテクチャを採用する、NVIDIAのデータセンター向けGPU「A100」に、メモリ容量を2倍に拡張した「A100 80GB」が追加された。
また「A100 80GB」では、高速なHBM2eメモリを使用することで、メモリ帯域幅も1,555GB/secから2,039GB/secに拡張され、データの読み込み速度がさらに高速化。より大規模なモデルやデータセットの演算を行うことができるようになる。
演算性能はFP64が9.7TFLOPS、FP64 Tensor Coreが19.5TFLOPS、FP32が19.5TFLOPS、FP32 Tensor Coreが312TFLOPS、BFLOAT16 Tensor Coreが624TFLOPS、FP16 Tensor Coreが624TFLOPS、INT8 Tensor Coreが1,248TOPS、INT4 Tensor Coreが2,496TOPS。
インターコネクトはNVIDIA NVLink(600GB/sec)/PCI-Express4.0(64GB/sec)、最大消費電力は400W。
文: エルミタージュ秋葉原編集部 池西 樹
NVIDIA Corporation: http://www.nvidia.com/