AMDInstinctMI300X和MI300AAI加速器详细介绍CDNA3和Zen4以先进的封装奇迹相结合
AMDInstinctMI300X和MI300A是人工智能领域最受期待的加速器之一,将于下个月推出。人们对AMD首款成熟的人工智能杰作抱有很多期待,今天我们想为您总结一下对这一技术奇迹的期待。
AMDInstinctMI300X专为GPU加速的AI工作负载而设计,而MI300A则采用技术最先进的APU套件来应对HPC
12月6日,AMD将举办“推进人工智能”主题演讲,其中主要议程之一是全面揭晓代号为MI300的下一代Instinct加速器系列。这个新的GPU和CPU加速系列将成为AI领域的主导产品,该领域是AMD的第一,也是目前最重要的战略优先事项,因为它最终推出了一款不仅先进而且旨在满足关键要求的产品。行业内的人工智能需求。MI300级AI加速器将成为另一个小芯片动力源,利用台积电的先进封装技术,让我们看看这些AI怪物的背后是什么。
AMDInstinctMI300X-凭借CDNA3和大内存挑战NVIDIA的AI霸主地位
AMDInstinctMI300X绝对是最受关注的芯片,因为它显然是针对人工智能领域的NVIDIAHopper和英特尔Gaudi加速器。该芯片仅基于CDNA3架构设计,并且有很多东西正在发生。该芯片将混合使用5纳米和6纳米IP,所有这些IP组合起来可提供多达1,530亿个晶体管(MI300X)。
从设计开始,主中介层采用无源芯片布局,该芯片使用下一代InfinityFabric解决方案容纳互连层。该中介层总共包括28个芯片,其中包括8个HBM3封装、HBM封装之间的16个虚拟芯片以及4个有源芯片,每个有源芯片都有两个计算芯片。
每个基于CDNA3GPU架构的GCD共有40个计算单元,相当于2560个核心。总共有8个计算芯片(GCD),因此总共有320个计算单元和20,480个核心单元。就产量而言,AMD将缩减这些核心的一小部分,我们将在一个月后获得有关确切配置的更多详细信息。
AMDInstinctMI300X和MI300AAI加速器详细介绍:CDNA3和Zen4采用先进封装Marvel4
带CDNA3芯片的AMDInstinctMI300X加速器。
内存是另一个巨大的升级领域,MI300X的HBM3容量比其前身MI250X(128GB)增加了50%。为了实现192GB的内存池,AMD为MI300X配备了8个HBM3堆栈,每个堆栈都是12-Hi,同时整合了16GbIC,每个IC具有2GB容量,或每个堆栈具有24GB容量。
该内存将提供高达5.2TB/s的带宽和896GB/s的InfinityFabric带宽。相比之下,NVIDIA即将推出的H200AI加速器提供141GB容量,而英特尔的Gaudi3将提供144GB容量。大型内存池在LLM中非常重要,因为LLM大多受内存限制,AMD绝对可以通过在内存部门的领先来展示其AI实力。用于比较:
本能MI300X-192GBHBM3
高迪3-144GBHBM3
H200-141GBHBM3e
MI300A-128GBHBM3
MI250X-128GBHBM2e
H100-96GBHBM3
高迪2-96GBHBM2e
功耗方面,AMDInstinctMI300X的额定功率为750W,比InstinctMI250X的500W提升了50%,比NVIDIAH200多了50W。
AMDInstinctMI300A-密集封装的百兆亿级APU现已成为现实
我们多年来一直等待AMD最终兑现Exascale级APU的承诺,随着InstinctMI300A的推出,这一天也越来越近了。MI300A的包装与MI300X非常相似,只是它使用了TCO优化的内存容量和Zen4内核。
其中一个有源芯片具有两个CDNA3GCD,被切掉并替换为三个Zen4CCD,这些CCD提供自己独立的缓存和核心IP池。每个CCD有8个核心和16个线程,因此活动芯片上总共有24个核心和48个线程。还有24MB的二级缓存(每个核心1MB)和一个单独的缓存池(每个CCD32MB)。应该记住,CDNA3GCD还具有独立的L2缓存。
AMDInstinctMI300X和MI300AAI加速器详细介绍:CDNA3和Zen4采用先进封装Marvel5
AMDInstinctMI300A加速器,带CDNA3和Zen4芯片。
总结AMDInstinctMI300加速器的一些突出功能,我们有:
首款集成CPU+GPU封装
瞄准百亿亿级超级计算机市场
AMDMI300A(集成CPU+GPU)
AMDMI300X(仅限GPU)
1530亿个晶体管
多达24个Zen4核心
CDNA3GPU架构
高达192GBHBM3内存
多达8个Chiplet+8个内存堆栈(5nm+6nm工艺)
将所有这些结合在一起,AMD将与其生态系统推动者和合作伙伴合作,提供8路配置的MI300AI加速器,采用SXM设计,通过夹层连接器连接到主板。看看这些将提供什么样的配置将会很有趣,虽然SXM板是给定的,但我们也可以期待PCI-E外形尺寸的一些变体。
技嘉展示的一种配置是其G383-R80机架的一部分,其主板带有四个SP5插槽,旨在支持InstinctMI300A加速器。该主板具有8个PCIeGen5x16插槽,可支持4个双插槽和4个FHFL卡或总共12个FHFL卡(4x16/4x8速度)。
目前,AMD应该知道,他们的竞争对手也在全力推进人工智能热潮,NVIDIA已经公布了2024年BlackwellGPU的巨大数字,英特尔也准备在未来几年推出Guadi3和FalconShoresGPU。目前可以肯定的是,人工智能客户将吞噬几乎所有他们能得到的东西,每个人都会利用这一点。但AMD拥有非常强大的解决方案,其目标不仅是成为NVIDIA的替代品,而且是人工智能领域的领导者,我们希望MI300能够帮助他们取得这一成功。