新闻中心 分类>>

开云体育- 开云体育官方网站- APP 最新2025AMD全栈战略浮出水面:开源很好所以我们要造GPU、ROCm和AI机架全生态

2025-06-16 23:18:56
浏览次数:
返回列表

  开云体育官方,开云体育app,开云app下载,开云棋牌,开云直播,开云体育靠谱吗,开云体育和亚博,开云体育老板是谁,开云官网,开云体育,开云直播英超,开云电竞,开云游戏,开云,开云体育官网,开云体育官方网站, 开云app, kaiyun sports, 开云体育简介, 开云体育官方平台, 世界杯开云, 开云体育app下载, 开云体育网址, 开云体育2025

开云体育- 开云体育官方网站- 开云体育APP 最新2025AMD全栈战略浮出水面:开源很好所以我们要造GPU、ROCm和AI机架全生态

  在AI圈子里,大家或许听到过这样的话术,“AI创新既是一场马拉松,也是一场短跑”,此时此刻我在AMD Advancing AI这场关乎未来AI计算格局的会上,脑中多次浮现出这句线日早晨,圣何塞的麦克内里会议中心就开始排长龙,据说今年注册的观众严重超标。身前身后的全球媒体同行,几乎都在议论近期某个模型或某个AI公司的进展,AI的热度像是6月份的天气。我于是又刷了一下AMD的最新财报,在2025年第一季度,AMD的数据中心业务营收37亿美元,同比增长57%。对应到全球AI版图,AMD的话语权逐渐变重。

  你可以把「Helios」 理解成一台为你组装好、调试好、开箱即用的“超级计算引擎”,它的外观形态是一个机架,里面有最强大的GPU,还预装了最匹配的 CPU、最高效的网卡、专门设计的散热和供电系统,且所有软件都经过深度优化,而不是让你自己去买一堆零件(CPU、显卡、主板、网卡等)回来自己攒机,说白了,就是为了解决超大规模客户在构建 AI 集群时面临的最大痛点——降低总拥有成本(Total Cost of Ownership,TCO)和缩短产品上市时间(Time-to-Market,TTM)。

  具体来看,MI350系列采用CDNA 4 GPU架构,3纳米,它的特点是:1、更快的AI训练和推理:AI算力较上代提升4倍,在FP4精度下可达20PF,同时在FP6精度下可提升训练和推理的速度;2、支持更大的大模型:由于每个模块都配备了288GB HBM3E高性能内存,所以单个GPU就能运行5200亿参数的模型,可想而知,这就有利于降低大模型推理的成本;3、支持快速部署AI基础设施:该系列基于行业标准的UBB8平台,支持“风冷”和“液冷”两种散热方案。

  提到数据中心的散热方式,此处有必要插入AMD副总裁兼数据中心加速业务总经理 Andrew Dieckmann的观点。他在前一天的媒体沟通会上指出:“2025年是液冷技术的重要里程碑”——目前所有在建的数据中心、以及前期规划中的数据中心项目,基本都将采用液冷方案,这是因为它能带来更低的TCO,长远来看更具经济效益,这是AMD前进的方向;同时,风冷市场需求依然强劲,尤其是在企业内部部署场景中,AMD也会推出相应的产品线 系列的性能,俗话讲“是骡子是马拉出来溜溜”,「性能」一直都是衡量 AI 加速器的标尺,AMD此次也摆出了MI350 系列与其他产品的直接对标,不仅对标自家产品,还对标友商NVIDIA的产品。

  首先,在推理性能方面。MI355X 对比上一代 MI300X,在运行 Llama 3.1 405B(4050亿参数)这样的大模型时,推理吞吐量最高提升可达 4.2 倍,在AI Agent、内容生成、文本摘要、聊天对话等多种场景中,整体性能也提升了3-4倍。而且,这一优势并不仅限于特定模型,在 DeepSeek R1、Llama 3.3 70B、Llama 4 Maverick等多个典型模型上,吞吐量均实现了超过 3 倍的性能提升。

  基于MI350系列,各家OEM厂商推出了采用AMD技术的AI机架方案,整合了EPYC CPU、Instinct GPU和Pensando DPU,全部整合为一体化解决方案。在大规模部署环境中,单个液冷机架最多可容纳96个GPU,甚至可扩展至128个GPU,配备2.6 ExaFLOPS FP4算力和36TB HBM3e高速内存。而在风冷散热系统的部署方案中,MI350系列机架单柜可支持64个GPU,兼容传统数据中心的部署环境。

  “我们全面更新了AI推理的技术架构。从VLLM和SGLang这些基础框架的升级,到提升服务性能、支持更高级的数据类型,再到开发高性能的核心程序,以及实现Flash Attention v3这样的前沿算法。我们让开发过程变得更简单,用类似Python的方式来整合各种核心功能。我们还大幅改进了系统内部的通信方式,这让ROCm 7的推理性能比上一代ROCm 6提升了3.5倍、训练性能提升了3倍。”Vamsi Boppana指出。

  说到这里还不忘强调开源的好处,顺便硬刚一下友商。Vamsi Boppana说,“在AI推理服务的领域,我们越来越发现,开源的解决方案在功能更新速度和性能表现上都已超过不公开源代码的方案。比如VLLM和SGLang这样的开源框架,它们的代码更新速度非常快,已经领先实现了FP8这种优化功能,比那些闭源产品早很多。我们与这些开源社区密切合作,在DeepSeek FP8的测试中,MI355X系列比NVIDIA B200最多提高了1.3倍。这就是开放合作的力量,让我们能够快速行动,创造更多可能性。”

  其次,全面支持 ROCm on Client。这曾是 AMD 的一个“痛点”,现在,ROCm将不再局限于云端和数据中心,而是将全面支持锐龙笔记本和工作站平台,并且首次正式支持 Windows 系统,这意味着开发者可以在自己的本地设备上,使用统一的软件环境进行AI开发和调试。同时,AMD 还将与红帽、Ubuntu、OpenSUSE 等主流 Linux 发行商合作,提供“inbox”支持,即 ROCm 将被预装在系统发行版中,免去用户繁琐的安装过程。

  第二,构建以开发者为中心的开放生态系统。Lisa Su博士在演讲中反复强调“开放”的重要性。“回顾历史可以发现,许多重大技术突破最初都是采用封闭模式的,但行业发展历程反复证明,开放才是创新腾飞的关键。”她以Linux超越Unix、Android的成功为例,论证了开放生态如何促进良性竞争、加速创新并最终让用户获益。因此,AMD全面支持各大主流框架,将ROCm软件生态开源,并积极主导和参与UEC、UAL等开放行业标准,都是在“凝聚行业力量,让每个人都能参与AI创新”。

  第三,提供端到端解决方案。随着AI系统日趋复杂,客户要的不再只是单颗芯片,而是经过整合优化的全栈解决方案。为此,AMD近年来通过自身发展和战略并购(如收购ZT、Nod.ai、Silo.ai、Lamini等公司),不断增强其在机架级设计、软件和编译器等领域的技术实力,从而为客户提供“开箱即用”的AI平台。“过去一年间,AMD已完成超25项战略投资,有效拓展了合作伙伴网络,并为未来AI软硬件领域的创新企业提供支持。”Lisa Su博士指出。

搜索