2023.12.07 10:40 更新
2023.12.06 配信
AMD(本社:アメリカ)は2023年12月6日(現地時間)、CDNA 3アクセラレータアーキテクチャを採用したGPU「AMD Instinct MI300X」およびAPUの「AMD Instinct MI300A」から構成される、データセンターの生成AI向けソリューション「AMD Instinct MI300」シリーズを正式発表した。
「AMD Instinct MI300X」は、次世代のCDNA 3アクセラレータアーキテクチャを採用するGPUで、従来のAMD Instinct MI250Xに比べ約40%多いCU(Compute Unit)を搭載。複雑さを増す大規模言語モデル(LLM)に対応するため、メモリ容量は従来の1.5倍、メモリ帯域幅は1.7倍に向上している。主な仕様は、CUが304基、メモリは192GBのHBM3を実装、メモリ帯域幅は5.38TB/s。競合であるNVIDIA HGX H100との比較では、LLMでの推論実行時にスループットを最大1.6倍向上させることが可能という。
「AMD Instinct MI300A」はCDNA 3アクセラレータアーキテクチャのGPUに加えて、Zen 4アーキテクチャのCPUを1チップに統合したAPU。CUは228基でメモリは128GB HBM3を実装、メモリ帯域幅は5.38TB/s。FP32演算およびAIワークロードにおいて、従来のAMD Instinct MI250Xに比べて最大1.9倍のワットパフォーマンスを発揮するとされる。
文: 編集部 絵踏 一
AMD: https://www.amd.com/