在全球AI算力的这场、几乎已被英伟达(NVIDIA)的CUDA生态,所完全“垄断”的牌局中,一场旨在构建“第二极”、打破“一家独大”格局的、重量级的“反击战”,正由AMD、IBM,以及一家名为Zyphra的AI初创公司,联手打响。
三方近日,联合发布了名为ZAYA1的基础大模型。

这并非又一次常规的模型迭代。其背后,隐藏着一个更具“革命性”的、里程碑式的身份标签:
它是全球首个,在训练的全流程中,完全地、100%地,基于AMD的硬件(Instinct MI300X GPU)和软件生态(ROCm),所成功炼成的大规模MoE(混合专家)基础模型。
这场“B计划”的核心,是一次对“纯AMD”技术栈,在大规模、生产级AI训练场景中,可行性与竞争力的、公开的、不容置辩的“肌肉秀”。
其训练的规模,堪称豪华:
- 集群: 部署在IBM Cloud之上的、一个由1024张AMD Instinct MI300X GPU,所组成的超级计算集群。
- 互联: 所有的GPU,都通过AMD自家的Infinity Fabric高速互联技术,进行连接。
- 算力: 整个集群的峰值算力,高达750 PFLOPs。
而在这个强大的、纯AMD的算力底座之上,三方,共同完成了一次对高达14T(万亿)Tokens海量数据的预训练。
其最终炼成的ZAYA1模型,其性能表现,也足以,让其昂首挺胸地,与当前全球最顶尖的、由英伟达硬件所训练出的开源模型,进行正面的“硬碰硬”。
根据官方公布的基准测试成绩:
ZAYA1的基础版本(ZAYA1-Base),在尚未经过任何指令微调和RLHF(人类反馈强化学习)的情况下,其在MMLU-Redux、GSM-8K、MATH、ScienceQA等多个权威的、综合性的能力评测基准上,其综合性能,已经与阿里的、同样采用MoE架构的Qwen3系列,完全持平。
而在更为考验模型逻辑推理能力的CMATH和OCW-Math这两个数学/STEM(科学、技术、工程和数学)的专项评测中,ZAYA1,甚至,实现了对Qwen3的显著超越。
这场“性能持平”的背后,是ZAYA1,在模型架构上的两项关键创新:
-
CCA注意力机制: 一种将“卷积”与“压缩嵌入”相结合的、全新的注意力头设计。
- 其结果是,在处理长上下文时,其显存的占用,降低了32%;而吞吐量,则提升了18%。
-
线性路由MoE: 一种更精细化的“专家”路由算法。
- 它,将Top-2路由的准确率,提升了2.3个百分点。并确保了,即使在模型的稀疏度,高达70%的情况下,GPU的利用率,依然能够保持在一个较高的水平。
爱力方的分析认为,ZAYA1的诞生,其意义,已远超一次单纯的模型发布。
它更像是一次深刻的“生态宣言”与“市场宣战”。
- 对AMD而言,它,以一种最直接、也最有说服力的方式,向整个行业,证明了:MI300X + ROCm这套组合,已经不再是一个只能在PPT上,对标英伟达的“期货”。它,已经是一套真正具备了,在大规模、最前沿的MoE模型训练中,与CUDA生态,进行正面抗衡的、成熟的、可用的“备选项”。
- 对整个AI产业而言,它,则提供了一个,我们期待已久的、能够打破英伟达“事实垄断”的“B计划”。一个更具竞争性的、拥有多个供应商的AI算力市场,将不仅,意味着更低的价格和更短的交付周期,更将,从根本上,降低整个行业的系统性风险。
AMD官方,也毫不掩饰其更大的野心。
其表示,此次与IBM和Zyphra的成功合作,仅仅是一个开始。
未来,它,将与更多的云厂商,去复制这种“纯AMD”的AI训练集群方案。
其最终的目标,是在2026年,当行业,普遍进入到训练超过100B(千亿)参数的、更大规模的MoE模型时,其整体的解决方案,能够在TCO(总拥有成本)上,实现与英伟达方案的完全持平。
一场关于AI算力“王座”的、真正的、双雄争霸的“楚汉之争”,其最精彩、也最残酷的篇章,才刚刚开始。而ZAYA1的诞生,正是AMD,在这场战争中,吹响的第一声、嘹亮的、反攻的号角。