
当地时间2025年6月12日,AMD在美国加利福尼亚州圣何塞举办Advancing AI 2025大会,发布其全面的端到端集成AI平台愿景,并推出其开放、可扩展且基于行业标准的机架级AI基础设施。
会上,AMD及其合作伙伴展示了他们如何利用新的AMD Instinct MI350系列加速器构建开放的人工智能生态系统。以及AMD ROCm生态系统的持续创新及成长情况。其强大的、全新的、开放的机架规模设计和路线图,将引领机架级规模化AI性能持续保持领先。
AMD提供领导解决方案,加速开放AI生态系统
本次大会,AMD宣布了一系列硬件、软件和解决方案,以支持全方位的人工智能领域。


首先,AMD推出了Instinct MI350系列GPU,为生成式AI和高性能计算的性能、效率和可扩展性设定了新的标准。MI350系列包括Instinct MI350X和MI355X GPU及平台,在FP4和FP6精度,相对MI300X实现了的AI计算性能提升4倍,推理性能提升35倍,为各行业带来革命性的AI解决方案。可以快速实施基于工业标准GPU Node的AI基础设施部署,支持风冷和液冷。

而MI355X还提供了显著的性价比收益,与竞争解决方案B200相比,其每美元生成的词元数量最多增加40%。

Instinct MI350系列GPU采用全新的CDNA 4 AI加速架构,具备为AI和大模型设计的增强型矩阵引擎、支持新的数据格式和混合精度算术、采用增强的Infinity Fabric和先进封装连接,以及更好的能效表现。其计算核心采用3nm制程,具备185B(1850亿)个晶体管,支持新一代FP4和FP6 AI数据格式,采用HBM3E内存。

MI350系列GPU仍然采用chiplet设计,将N3P工艺的XCD加速核心模块和N6工艺的I/O Die(IOD)进行混合封装采用3D混合键合架构提升计算密度和每瓦性能。IOD和IOD之间,以及和HBM3E高性能内存之间,则采用2.5D架构。


AMD INSTINCT MI350系列GPU目前有两个型号,MI350X(风冷)和MI355(液冷),其TDP功耗有一定差别,峰值算力也有不同。根据AMD发布的数据,其HBM3E内存规模相比竞争对手更大,MI355的性能更是在很多格式上超越竞争对手。

在LIama 3.1 405B性能测试中,MI355X在各方面都大幅超越此前的MI300X。

在最常见的下一代推理测试中,其代际性能提升也超过3倍。



其次, AMD展示了端到端的开放标准机架规模人工智能基础设施,该基础设施已与AMD Instinct MI 350系列加速器、第五代AMD EPYC 处理器和AMD Pensando Pollara NICs网卡相结合,在Oracle Cloud Infrastructure(OCI)等超大规模部署中推出,其合作伙伴的相关解决方案计划于2025年下半年广泛上市。




此外,AMD还预览了其下一代人工智能机架“Helios ”。该机架将基于下一代AMD Instinct MI400系列GPU、“Zen 6 ”架构、代号“Venice ”的AMD EPYC CPU以及代号“Vulcano ”的AMD Pensando NICs 构建。


到2026年,还会进一步推出MI400系列全新产品。各方面性能将进一步提升!
全面进化的AMD ROCm 7来了!

另一方面,AMD还在会上宣布推出其最新版本的开源AI软件栈ROCm 7。该软件栈旨在满足生成式AI和高性能计算工作负载日益增长的需求,同时全面显著提升开发者的整体体验。



ROCm 7增强了对行业标准框架的支持,扩展了硬件兼容性,并引入了一系列新的开发工具、驱动程序、API和库,以加速AI的开发和部署。无论在AI推理还是训练方面,ROCm 7都支持了更多全新功能。


相对ROCm 6,新一代ROCm 7在推理方面的平均提升达到3.5X,在训练方面的提升达到3倍。


现在,ROCm已经扩展至企业级AI层面,无论操作系统平台还是集群管理,都可以支持。
广泛的合作伙伴生态系统展现AMD助力的AI不断进步
借助ROCm 7软件栈和AMD开发者云,AMD正在降低其软件开发生态的门槛,拓展下一代计算的可及性。AMD与Hugging Face、OpenAI以及Grok等领导者的战略合作,证明了共同开发的开放式解决方案的强大力量。

AMD 还宣布面向全球开发者和开源社区全面开放AMD开发者云。该云专为快速、高性能的AI开发而打造,用户将能够访问完全托管的云环境,并获取启动AI项目所需的工具和灵活性,并实现无限扩展。
AMD的客户讨论了他们如何使用AMD AI解决方案来训练当今领先的AI模型、大规模推理以及加速AI的探索和开发:Meta 详细介绍了 Instinct MI300X如何广泛应用于Llama 3和Llama 4推理。Meta分享了对 MI350及其计算性能、单位TCO性能和下一代内存的兴奋之情。Meta将继续与AMD在AI发展路线图上密切合作,包括未来Instinct MI450平台的规划。

Oracle云基础设施(OCI)是首批采用AMD开放式机架规模AI基础设施和AMD Instinct MI355X GPU的行业领导者之一。OCI利用AMD CPU和GPU为AI集群提供均衡、可扩展的性能,并宣布将提供由最新 AMD Instinct 处理器加速的泽塔级AI集群,配备多达131,072个MI355X GPU,使客户能够大规模构建、训练和推理 AI。
此外,HUMAIN、微软、Cohere、RedHat等合作伙伴也分享了相关产品的应用情况。




Astera Labs和Marvell则分享了UALink生态系统的创新和UALink产品组合的计划。


会上,AMD还透露了代号为“Venice”,2nm制程,Zen 6架构的下一代EPYC处理器的相关性能情况。
OpenAI CEO Sam Altman也来到现场!
Instinct MI350系列超额完成了AMD五年前定下的目标,即AI训练和高性能计算节点的能效提高30倍,最终实现了38倍的提升。AMD还公布了新的2030年目标愿景,即在2024年的基础上,将机架规模能效提高20倍,使目前需要超过275个机架进行训练的典型AI模型训练场景,到2030年能够在一个不满载的机架上即可进行同等水平的训练,从而减少95%的用电量。这一宏伟目标不仅彰显了AMD在技术创新上的雄心,更体现了其对可持续发展的深刻承诺,预示着未来AI计算的绿色革命。

