在人工智能领域,AMD 正以其强大的硬件和软件实力,积极拥抱 Agentic AI 的未来。近期举行的 Advancing AI 2025 大会上,AMD 不仅发布了 MI350 系列 GPU,还预览了备受期待的 MI400 系列,同时公布了 ROCm 7 软件平台的最新进展。这些创新成果共同构成了 AMD 在 AI 领域的核心竞争力,推动着 AI 应用向更智能、更高效的方向发展。

1. MI350 系列 GPU:高性能推理的强大引擎

MI350 系列 GPU 是 AMD 在 AI 推理领域的一大亮点。该系列包括 MI350X 和 MI355X 两款产品,后者在耐温和功耗方面进行了优化,本质上与MI350X 相同。MI350X 凭借其卓越的性能和性价比,成为企业级服务器的理想选择。

  • 性能优势: 每个配备八块 MI350X GPU 的服务器,拥有高达 2.3TB 的 HBM(高带宽内存),足以在单个服务器上运行几乎任何规模的 AI 模型。与 MI300X 相比,MI355X 的吞吐量提升高达 35 倍!
  • 性价比: Dr. Lisa Su 强调,MI350X 在推理方面,每美元可提供高达 40% 的 Token 数量优势,使其成为追求成本效益的企业的首选。
  • 冷却方案: MI350X 提供风冷和液冷两种版本,满足不同数据中心的冷却需求。

MI350 系列 GPU 的推出,显著提升了 AI 推理的效率和性价比,助力企业更高效地部署 AI 应用。例如,对于需要处理海量用户请求的在线服务,使用 MI350X GPU 可以显著降低延迟,提升用户体验。

2. MI400 系列 GPU:专为万亿参数模型而生

MI400 系列 GPU 是 AMD 面向未来 AI 发展的战略布局。作为为万亿参数模型设计的强大加速器,MI400 系列 GPU 代表着 AMD 在 AI 硬件领域的最高水平。

  • Venice CPU: MI400X GPU 将搭配基于 2nm 工艺、拥有高达 256 个 Zen 6 核心的 Venice CPU。这款 CPU 专为与 MI400X GPU 协同工作而优化。
  • HBM4 内存: MI400X 配备 432GB 的 HBM4 内存,并支持 300GB/s 的横向扩展带宽,实现跨机架和集群的互联。
  • 性能指标: MI400X 的 FP4 性能高达 40 PetaFLOPS,足以应对最复杂的 AI 工作负载。

MI400 系列 GPU 的出现,为训练和部署更大规模的 AI 模型提供了强大的硬件支撑。随着 AI 模型规模的不断增大,MI400 系列 GPU 将在推动 AI 技术发展方面发挥关键作用。例如,在自然语言处理领域,更大的模型意味着更强的语言理解和生成能力,能够创造更逼真的对话机器人和更流畅的机器翻译。

3. ROCm 7:开放、高效的 AI 软件生态

ROCm 是 AMD 的开源软件平台,旨在为开发者提供高效、灵活的 AI 开发环境。ROCm 7 是 ROCm 平台的最新版本,带来了诸多新特性,进一步提升了 AI 应用的开发和部署效率。

  • 分布式推理: ROCm 7 增强了分布式推理能力,支持更大规模的 AI 模型部署。
  • 大规模训练: ROCm 7 优化了大规模训练流程,降低了训练时间和成本。
  • 快速部署: ROCm 7 简化了模型部署流程,使开发者能够更快速地将 AI 模型投入使用。
  • 开放生态: AMD 强调开源推理框架(如 vLLM、SGLANG)相比专有解决方案具有更高的性能。ROCm 7 将支持更多开源框架,并提供更完善的优化工具,帮助开发者充分利用 GPU 的内存资源,加速推理和训练/微调过程。

ROCm 7 的发布,进一步完善了 AMD 的 AI 软件生态,降低了 AI 开发的门槛,吸引了更多开发者加入 ROCm 社区。一个繁荣的软件生态是硬件成功的关键,ROCm 的持续发展将为 AMD 的 AI 硬件提供强大的软件支持。例如,开发者可以使用 ROCm 7 轻松地将 PyTorch 或 TensorFlow 模型部署到 AMD GPU 上,无需复杂的配置和优化。

4. Agentic AI:AMD 眼中的未来

AMD 认为,Agentic AI 是人工智能的未来发展方向。Agentic AI 是一种新型 AI 范式,涉及能够执行复杂推理和多步骤任务的自主代理。AMD 正积极布局 Agentic AI 领域,提供全面的硬件和软件解决方案。

  • Agentic AI 的核心: Agentic AI 的核心在于连接 LLM(大型语言模型)的能力与企业的具体数据、工具和人员。一个 Agentic 流程将包含多个模型,包括执行各自角色的专业模型,以完成各项任务。
  • 全栈解决方案: Agentic AI 应用对整个技术栈提出了更高的要求:GPU 用于推理和推理,CPU 用于编排,先进的互连技术提供安全、低延迟的数据流。AMD 提供了从 GPU、CPU 到网络的全栈解决方案,满足 Agentic AI 的需求。
  • Ultra Accelerator Link (UALink): AMD 倡导开放标准,如 UALink 和 Ultra Ethernet Consortium (UEC),以实现下一代规模化 AI 平台,促进产业合作,避免厂商锁定。UALink 技术支持扩展到 1000+ GPU 集群,并且由于其完全开放的架构,可以与任何 CPU 和 GPU 协同工作。

AMD 对 Agentic AI 的远见卓识,使其能够提前布局,为未来的 AI 发展做好准备。随着 Agentic AI 的普及,AMD 有望在新的 AI 市场中占据领先地位。例如,在自动驾驶领域,Agentic AI 可以实现车辆自主决策,提高行驶安全性和效率。

5. Helios AI Rack:统一的 AI 平台

为了更好地支持 AI 工作负载,AMD 推出了 Helios AI Rack,这是一个将 AMD CPU、AMD GPU、AMD Pensando NIC 和 ROCm 软件集成在一起的统一平台。

  • 性能优势: Helios AI Rack 支持高达 72 个 GPU,提供 260 TB/s 的横向扩展带宽,以及 2.9 ExaFLOPS 的 FP4 性能。与竞争对手相比,Helios AI Rack 支持多 50% 的 HBM4 内存、内存带宽和横向扩展带宽,从而实现更快的训练速度、更高的推理吞吐量,以及处理大规模模型的能力。
  • 开放标准: Helios AI Rack 符合 OCP 标准,支持 Ultra Ethernet 和 UALink。

Helios AI Rack 的推出,为企业提供了一个开箱即用的 AI 解决方案,简化了 AI 基础设施的部署和管理。

6. Volcano NIC:下一代 AI 网络

为了满足 AI 应用对网络带宽的需求,AMD 推出了下一代横向扩展 AI NIC——Volcano。

  • UEC 1.0 兼容: Volcano 完全符合 UEC 1.0 标准。
  • 高速互联: Volcano 支持 PCIe 和 UAL 接口,可直接连接 GP CPU 和 GPU,并提供 800 Gb/s 的线路速率吞吐量,以支持大规模系统。

Volcano NIC 的推出,为 AI 应用提供了高速、低延迟的网络连接,加速了数据传输和模型训练。

7. 行业合作伙伴的支持

在 Advancing AI 2025 大会上,来自 xAI、Meta、Oracle Cloud Infrastructure (OCI)、Microsoft、Cohere、Red Hat 和 OpenAI 等 AI 和云生态系统的众多合作伙伴分享了 AMD 的硬件和软件如何帮助他们高效、安全和经济高效地扩展最先进的 AI 工作负载。众多科技巨头的参与,充分展示了 AMD 在 AI 领域的影响力。甚至连 OpenAI 的 Sam Altman 也参与其中,并最终谈到了 AGI (通用人工智能)。

总结:AMD 在 Agentic AI 时代大有可为

AMD 通过 MI350 和 MI400 系列 GPU 的强劲性能、ROCm 7 软件平台的开放生态,以及对 Agentic AI 的前瞻性布局,为 AI 领域的未来发展奠定了坚实的基础。AMD 正在构建一个完整的 AI 生态系统,为企业和开发者提供强大的硬件、软件和技术支持。随着 AI 技术的不断进步和应用场景的不断拓展,AMD 有望在 Agentic AI 时代取得更大的成就。