英伟达财报会实录:黄仁勋称AI新时代算力即营收

2026年02月26日 15:42
本文共计17044个字,预计阅读时长57分钟。
来源/财联社 责编/爱力方

财联社2月26日讯(编辑 刘蕊)美东时间周三盘后,英伟达公布表现强劲的第四财季财报。

在稍后的财报电话会上,英伟达CEO黄仁勋和首席财务官Colette Kress反复强调,AI发展已经迎来拐点,算力需求呈爆发式增长。在这一新时代背景下,算力即营收。

在最近Anthropic一系列产品引发软件股大跌、Citrini的“AI鬼故事”加剧投资者恐慌之际,英伟达的财报表现和高管表态再次成为稳定军心的压舱石,他们强调AI需求强劲和发展前景的无限可能。

在昨日财联社发布的财报前瞻文章中,我们提出了对于英伟达财报的四大关注重点。而在今晨的财报会上,这四大重点的确成为英伟达高管和华尔街分析师们讨论的重要话题。

英伟达财报会解答四大重点疑问

首先,英伟达的数据中心业务需求过于集中的问题——这也是在问答环节分析师们反复问询的问题。

英伟达首席财务官Colette Kress承认,2026 年全球头部的五大云计算服务商和超大规模云计算企业贡献了英伟达数据中心业务超50%的营收,这不免再次加重了华尔街对英伟达数据中心需求过于集中的担忧。

不过黄仁勋在面对分析师质疑时强调,英伟达的客户类型丰富,涵盖 AI 模型研发商、平台服务商等,且全球客户的多元化程度正持续提升,这一趋势将为公司生态系统发展带来积极影响。

在被分析师们询问“如果客户资本支出停止增长怎么办”时,黄仁勋信心满满地回应,他对客户的现金流增长充满信心。

“原因很简单:智能体AI已迎来发展拐点,其实用性在全球企业中得到广泛验证,由此带来的算力需求呈爆发式增长。在AI的新时代,算力即营收——只要算力增长,就能带来营收的增长。”

另一个关键重点是其英伟达顶级的Blackwell和Rubin的持续产能爬坡情况。黄仁勋在财报会上透露,目前各大云计算服务商、超大规模云计算企业、AI 模型研发商和企业客户部署的 Blackwell 架构基础设施,算力已达 90 亿瓦,且处于满负荷运行状态。

而对于Rubin,本周早些时候,英伟达已向客户交付首批 Vera Rubin 样品,量产计划将于2026年下半年如期推进。虽然目前还无法确定Vera Rubin在今年下半年早期的爬坡能占多少比例,但毫无疑问,市场的需求和兴趣非常强烈。

第三个重点是近期存储芯片短缺和电源供应短缺可能给英伟达带来的发展瓶颈。

英伟达首席财务官Colette Kress提到:“所有数据中心均面临电力约束,基于这一现状及实现 AI 工厂营收最大化的需求,客户正根据每瓦性能表现作出关键的架构决策。”

黄仁勋还特别强调,公司上一季度的库存环比增长 8%,以此暗示公司不会过多受到内存短缺的影响,“我们已战略性储备库存、锁定产能,以满足未来多个季度的市场需求。”

在问答环节提到内存短缺问题时表示:“尽管我们非常希望能有更多的供应,但我们确实认为在接下来的几个季度里,供应将会非常紧张。”

最后,是受到密切关注的毛利率问题。英伟达首席财务官Colette Kress提到,随着Blackwell产品产能提升,公司非GAAP毛利率环比升至 75.2%。她还强调,推动公司毛利率提升的核心关键,是为客户持续打造跨代际的技术领先优势,这是唯一且最重要的因素。

另外,有趣的是,还有分析师提到了近期大热的“太空数据中心”话题。黄仁勋认为,目前,太空数据中心的经济效益较差,但未来将持续改善。太空数据中心的技术方案与地球存在显著差异,但目前已有多种技术路线在竞争落地。未来,AI在太空领域将拥有极具前景的应用场景。

英伟达 Q4 财报电话会议记录(部分内容有删减)

日期:2026 年 2 月 25 日(周三)美国东部时间下午 5 点

参会人员:

  • 总裁兼首席执行官 ——黄仁勋(Jensen Huang)

  • 执行副总裁兼首席财务官 ——Colette Kress

  • 投资者关系副总裁 ——Toshiya Hari

Toshiya Hari:各位下午好,欢迎参加英伟达公司 2026 财年第四季度财报电话会议。今天与我一同参会的,是英伟达总裁兼首席执行官黄仁勋,以及执行副总裁兼首席财务官Colette Kress。接下来,有请 Colette 发言。

Colette Kress:谢谢 Toshiya。本季度,公司再创佳绩,营收、营业利润和自由现金流均创历史新高。总营收达 680 亿美元,同比增长 73%,增速较 Q3 进一步加快;环比营收同样创纪录,数据中心业务新增营收 110 亿美元,客户群体涵盖云计算服务商、超大规模云计算企业、AI 模型研发商、企业客户及主权国家,实现多元化拓展。随着推理部署与训练需求同步增长,市场对 Blackwell 架构、数据中心级极致协同设计的需求持续攀升。加速计算的转型趋势,以及 AI 向超大规模云计算现有负载的全面渗透,正持续推动公司增长。

基于更智能的多模态模型构建的智能体 AI 和实体 AI 应用,已开始成为公司财务业绩的增长动力。

全年来看,数据中心业务营收达 1940 亿美元,同比增长 68%。自 2023 财年 ChatGPT 推出以来,公司数据中心业务规模已增长近 13 倍。展望未来,我们预计 2026 日历年公司营收将实现环比持续增长,超过我们去年公布的 5000 亿美元Blackwell 和Rubin平台营收目标。我们已通过库存储备和采购承诺做好准备,以满足未来市场需求,包括2027日历年的产品出货。所有数据中心均面临电力约束,基于这一现状及实现 AI 工厂营收最大化的需求,客户正根据每瓦性能表现作出关键的架构决策。

SemiAnalysis 称英伟达为 “推理领域的领导者”,InferenceX 平台的最新测试结果进一步印证了我们的领先地位:与同类产品相比较,GB300 和 NVL72 芯片的每瓦性能提升高达 50 倍,每令牌成本降低 35 倍。此外,CUDA 软件的持续优化,仅用 4 个月时间,就让 GV200 和 NVL72 芯片的性能提升了 5 倍。英伟达实现了行业最低的每令牌成本,基于英伟达技术的数据中心能创造最高的营收。以公司的规模,我们的创新速度在行业内无可匹敌。

年度研发预算即将达到 200 亿美元,同时我们具备跨芯片、系统、算法和软件的计算与网络极致协同设计能力,凭借这些优势,我们计划在每一代产品中实现每瓦性能的跨越式提升,长期巩固行业领先地位。

第四季度,数据中心业务营收 620 亿美元,同比增长 75%、环比增长 22%,增长主要得益于 Blackwell 和 Blackwell Ultra 产品的产能持续释放。英伟达基础设施的市场需求居高不下,即便是 Hopper 架构产品,甚至是推出已有 6 年的 Ampere 架构产品,在云计算领域均已售罄。

距离 Grace Blackwell GB200 NVL72 系统发布已近一年,目前各大云计算服务商、超大规模云计算企业、AI 模型研发商和企业客户部署的 Blackwell 架构基础设施,算力已达 90 亿瓦,且处于满负荷运行状态。网络业务作为公司数据中心级基础设施的核心板块,本季度表现亮眼,营收达 110 亿美元,同比增长超 3.5 倍。

得益于 Grace Blackwell 系统占本季度数据中心业务营收约三分之二,公司纵向扩展和横向扩展技术的市场需求均创历史新高,环比均实现两位数增长。NVLink 纵向扩展架构彻底革新了计算模式,彰显了超算全芯片及全栈式极致协同设计的强大实力。第四季度,我们宣布将为 AWS 提供 NVLink 技术,实现与其中定制芯片的集成。Spectrum X 以太网纵向及跨域扩展网络的市场热度持续攀升,客户正推进分布式数据中心向一体化千兆级 AI 工厂的整合。

全年来看,网络业务营收突破 310 亿美元,较 2021 财年(公司收购 Mellanox 的年份)增长超 10 倍。

公司的需求结构呈现广泛、多元的特点,且已突破聊天机器人单一应用场景。

首先,AI 领域正迎来从传统机器学习到生成式 AI 的根本性平台转型。超大规模云计算企业将海量传统负载升级为生成式 AI(包括搜索、广告生成、内容推荐系统)后,实现了显著的投资回报,这一成果正推动我们的核心客户加快资本支出。例如,Meta 凭借 GEM 模型的升级,实现 Facebook 广告点击量提升 3.5 倍、Instagram 转化量提升超 1%,直接带动营收大幅增长。基于英伟达的基础设施,Meta Superintelligence Labs 可完成前沿智能体 AI 系统的训练和部署。目前,前沿智能体 AI 系统已迎来发展拐点。

Claude Code、Claude Cowork 和 OpenAI Codex 已具备实用级智能,市场采用率激增,令牌商业化实现盈利,推动企业迫切扩大算力规模。算力直接决定 AI 的智能水平和企业营收增长。

分析师预计,2026 年头部五大云计算服务商和超大规模云计算企业的资本支出较年初增长近 1200 亿美元,即将达到 7000 亿美元 —— 这些企业贡献了公司数据中心业务超 50% 的营收。我们仍认为,传统数据中心负载向 GPU 加速计算的转型,以及 AI 对现有超大规模云计算负载的赋能,将在长期为公司贡献约一半的增长机遇。如同电力和互联网,每个国家都将打造并运营本土的 AI 基础设施。

2026 财年,公司主权 AI 业务营收同比增长超两倍,突破 300 亿美元,收入主要来自加拿大、法国、荷兰、新加坡和英国的客户。长期来看,我们预计随着各国根据 GDP 规模投入 AI 建设,主权 AI 业务的增长速度将至少与 AI 基础设施市场持平。

尽管美国政府批准了少量面向中国客户的 H200 产品出口,但公司尚未产生相关营收,未来该产品能否继续进口至中国仍未可知。

中国本土竞争对手近期完成首次公开募股,实力不断提升,或对全球 AI 行业格局造成长期冲击。为巩固在 AI 计算领域的领先地位,美国需吸引全球所有开发者,成为包括中国企业在内的所有商业机构的首选平台。我们将继续与美中两国政府沟通,倡导美国保持全球市场的竞争优势。

上月的国际消费电子展上,我们正式发布 Rubin 平台,该平台包含 6 款全新芯片:Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 以太网交换机。与 Blackwell 平台相比,Rubin 平台训练 MoE 模型所需的 GPU 数量可减少 75%,推理令牌成本可降低 90%。本周早些时候,我们已向客户交付首批 Vera Rubin 样品,量产计划将于 2026 年下半年如期推进。基于模块化、无电缆托盘设计,Rubin 平台在韧性和可维护性上较 Blackwell 平台实现提升。我们预计,所有云计算模型研发商都将部署 Vera Rubin 平台。

接下来介绍游戏业务。本季度游戏业务营收 37 亿美元,同比增长 47%,增长得益于 Blackwell 的需求提升及供应链改善。GeForce RTX 是游戏玩家、创作者和开发者的首选平台。第四季度,我们推出了多项新技术和升级功能,包括 DLSS 4.5—— 该技术借助 AI 实现游戏视觉效果的全新突破,同时让主流 AI PC 框架的大语言模型推理速度提升 35%。展望未来,尽管终端市场需求旺盛、渠道库存处于健康水平,但供应限制将成为 Q1 及后续游戏业务发展的不利因素。

专业可视化业务营收首次突破 10 亿美元,达 13 亿美元,同比增长 159%、环比增长 74%。本季度,我们推出搭载 72GB 高速内存的 RTX Pro 5000 Blackwell 工作站,专为运行大语言模型和智能体工作流的 AI 开发者打造。汽车业务营收 6.04 亿美元,同比增长 6%,增长源于自动驾驶解决方案的强劲市场需求。国际消费电子展上,我们发布了全球首个开放式推理、视觉、语言、动作模型组合 ——Alpamayo,同时推出配套的仿真蓝图和数据集,助力实现车辆的自主决策能力。首款搭载 Alpamayo 模型、基于英伟达 Drive 平台打造的梅赛德斯 - 奔驰 CLA 车型,即将正式上路。

实体 AI 已落地应用,2026 财年为公司新增营收超 60 亿美元。自动驾驶出租车的运营里程呈指数级增长,Waymo、特斯拉、Uber、文远知行、Zoox 等企业的商业车队已投入运营;预计 2025 年全球自动驾驶出租车数量将从数千辆,增长至未来十年的数百万辆,该市场有望创造数千亿美元的营收。这一市场扩张将带来算力需求的爆发式增长,目前各大整车制造商和服务提供商均基于英伟达平台开展研发。

我们正通过全新的 NVIDIA Cosmos 和 Isaac GR00T 开源模型及框架,推动机器人技术研发;Boston Dynamics、Caterpillar、FANUC Robotics、LG Electronics、Neurorobotics 等头部企业的英伟达赋能机器人和自主设备已投入应用。为加速实体 AI 在工业领域的落地,我们还宣布与 Dassault Systèmes、Siemens、Synopsys 深化合作,将英伟达 AI 基础设施、Omniverse 数字孪生、世界模型和 CUDA-X 库,带给全球数百万从事工业研发、设计和工程的专业人士。

接下来介绍利润表的其他项目。本季度,公司 GAAP 毛利率达 75%;随着 Blackwell 产品产能提升,非 GAAP 毛利率环比升至 75.2%。受新产品推出及计算、基础设施成本增加影响,GAAP 营业费用环比增长 16%,非 GAAP 营业费用环比增长 21%。第四季度非 GAAP 有效税率为 15.4%,低于预期,主要得益于一次性税务优惠。

公司库存环比增长 8%,同时大幅增加采购承诺 —— 我们已战略性储备库存、锁定产能,以满足未来多个季度的市场需求。本次采购承诺的周期较以往更长,体现了我们对未来市场需求的明确判断。尽管先进架构产品的供应紧张局面将持续,但凭借规模优势、完善的供应链和长期的合作伙伴关系,我们有信心把握未来的增长机遇。

第四季度,公司实现自由现金流 350 亿美元,2026 财年累计自由现金流 970 亿美元。本财年,我们通过股票回购和股息向股东返还 410 亿美元,占全年自由现金流的 43%。我们将继续投资技术研发和生态系统建设,培育市场发展,推动长期增长,最终为股东带来超越市场和同行的投资回报。

重要的是,我们将继续通过战略、审慎的流程开展投资,同时坚守向股东返还资本的承诺。

接下来介绍 2027 财年第一季度业绩展望。从本季度开始,我们将把基于股票的薪酬支出纳入非 GAAP 业绩核算。基于股票的薪酬是公司吸引和保留顶尖人才的核心薪酬体系组成部分。首先介绍营收:预计总营收 780 亿美元(±2%),增长主要来自数据中心业务。与上一季度一致,我们在业绩展望中未纳入任何来自中国区的数据中心计算业务营收。GAAP 毛利率预计为 74.9%(±50 个基点),非 GAAP 毛利率预计为 75%(±50 个基点)。全年来看,我们预计毛利率将维持在 75% 左右。

关于 Vera Rubin 平台的转型进展,我们将及时向市场更新。GAAP 营业费用预计约 77 亿美元,非 GAAP 营业费用预计约 75 亿美元,其中包含 19 亿美元基于股票的薪酬支出。2027 财年,剔除一次性项目和税务环境的重大变化,公司 GAAP 和非 GAAP 有效税率预计在 7% 至 19% 之间。接下来,有请黄仁勋发言。

黄仁勋:本季度,我们显著深化并扩大了与领先的前沿模型制造商的合作伙伴关系。近期,我们见证了 OpenAI GPT-5.3 Codex 的发布,该平台基于 Grace Blackwell 和 NVLink 72 系统完成训练和推理。GPT-5.3 Codex 可处理涉及研究、工具使用和复杂执行的长期任务,目前已在英伟达内部广泛部署,深受工程师认可。我们正与 OpenAI 推进合作协议的签订,目前已接近达成。我们为与 OpenAI 的长期合作感到振奋 —— 这是一家具有划时代意义的企业,我们从其创立之初便开始合作。

Meta Superintelligence Labs 的扩张速度迅猛。上周,我们宣布 Meta 将部署数百万颗 Blackwell 和 Rubin GPU、英伟达 CPU 及 Spectrum X 以太网,用于 AI 训练和推理。本季度,我们宣布与 Anthropic 建立合作关系,并向其投资 100 亿美元。Anthropic 将基于 Grace Blackwell 和 Vera Rubin 系统开展训练和推理工作。该公司的 Claude Cowork 智能体平台具有革命性意义,推动企业 AI 采用率迎来爆发式增长。

Claude Cowork 和 OpenAI 平台的算力需求激增,智能体 AI 的 “ChatGPT 时刻” 已经到来。英伟达与 Anthropic、Meta、OpenAI、xAI 等企业建立了广泛的合作,产品覆盖所有云计算平台;我们既能从头构建全栈式 AI 基础设施,也能为云计算平台提供技术支持,这一独特优势让我们能在训练、推理、AI 工厂扩展等各个阶段,与前沿模型研发商展开合作。

最后,我们近期与 Groq 达成非授权合作协议,获得其低延迟推理技术,同时吸纳了一支顶尖的工程师团队加入英伟达。如同收购 Mellanox 一样,我们将融合Groq 的创新技术,升级英伟达的架构,推动 AI 基础设施的性能和价值迈上新台阶。更多细节,敬请关注下月的 GTC。接下来,交还给 Toshiya。

Toshiya Hari:现在进入问答环节,操作员请接入提问。

Sarah(操作员):提醒各位,如需提问,请在电话键盘上按星号键加数字 1。第一个问题来自美国银行证券的 Vivek Arya。

Vivek Arya:感谢公司接受提问。您提到公司对 2027 日历年的增长拥有明确的判断,采购承诺也印证了这份信心。但 Jensen,我想了解的是,头部云计算客户 2026 年的资本支出即将达到 7000 亿美元,许多投资者担心这一规模在明年难以继续增长,且部分客户的现金流创造能力正有所承压。我们知道公司对自身的发展蓝图、采购承诺等充满信心,但您对客户持续扩大资本支出的能力有多大信心?如果客户资本支出停止增长,英伟达能否在现有规模下实现自身增长?谢谢。

黄仁勋:我对客户的现金流增长充满信心,原因很简单:智能体 AI 已迎来发展拐点,其实用性在全球企业中得到广泛验证,由此带来的算力需求呈爆发式增长。

在 AI 的新时代,算力即营收 —— 没有算力,就无法生成令牌;没有令牌,企业营收就无从增长。所以在这个全新的 AI 时代,算力直接决定营收。目前,市场上已有约 3000 亿至 4000 亿美元的可用资金,这一规模十分可观。现在这已经转向了AI。而在AI领域,为了生成Token,你需要计算能力,这直接转化为增长,直接转化为收入。

Sarah(操作员): 您的下一个问题来自摩根士丹利的Joseph Moore。您的线路已接通。

Joseph Moore:太棒了,谢谢。祝贺你们取得的业绩。 你谈到了你们对Anthropic以及潜在的对OpenAI核心进行的一些战略投资,同时你们也有英特尔、诺基亚、新思科技等合作伙伴,显然你们处于一切的中心。你能谈谈这些投资的作用吗?你如何看待资产负债表作为一种工具,以此来扩大英伟达在生态系统中的地位并参与到这种增长中去?

黄仁勋:关于对 OpenAI 等企业的战略投资,核心是围绕模型展开合作,同时依托英伟达平台实现协同发展。我们的产品覆盖所有云计算平台、所有数据中心,遍及全球各地;边缘计算领域及数十家 AI 原生企业,均基于英伟达的 AI 生态系统构建。无论是语言 AI、实体 AI 还是 AI 物理领域,所有生态系统的构建都离不开英伟达的技术支持。我们正全栈布局,加大对生态系统的投资。如今的算力布局较以往更为完善,覆盖了 AI 的各个环节,从模型研发到深度应用均有涉及。

正如我之前所说,算力规模的持续扩大是关键 ——GPU、计算节点的数量不断增加,带来的算力提升十分显著。我们的机柜设计极具优势,能实现算力的高效整合。同时,我们也重视轻量级算力解决方案的研发,部分客户希望将以太网与 AI 深度融合,而这正是我们的核心优势,Spectrum X 平台的性能表现就是最好的证明。打造价值百亿美元的 AI 工厂,离不开英伟达的网络业务技术支持,波士顿接口技术便是核心之一。任何接口的转换,都会带来延迟增加和不必要的能耗,因此我们在设计中尽量减少接口转换 —— 我们并非排斥虚拟化技术,实际上已在产品中应用,但会合理控制其使用。

Grace Blackwell 架构和 Rubin 架构采用了双层极致低延迟设计,大幅优化了架构布局,形成了对竞争对手的领先优势。我们的软件优势同样显著,软件与架构的深度融合,让两者的边界难以区分 —— 正是因为架构的卓越性能,才造就了软件的高效运行。CUDA 的效率和每浮点运算每秒的每瓦性能,在行业内无可匹敌;后续每一代 GPU 架构,都将受益于这一平台,从而延长产品的使用周期,提升创新的灵活性和速度,最终为客户带来更优的性能体验。

我们与 Groq 的合作成果将在 GTC 上公布 —— 核心是融合Groq 的技术,将其作为加速器,升级英伟达的架构,就像收购 Mellanox 后,我们融合其技术实现了架构的升级一样。

接线员:您的下一个问题来自摩根大通的Harlan Sur。您的线路已接通。

Harlan Sur:下午好,感谢接受我的提问。网络业务在你们整体数据中心业务中的占比继续上升。在2026财年中,你们网络业务的同比增速每个季度都在加快。正如你们提到的,第四季度同比增长3.6倍,显然得益于你们向上扩展(scale-up)和横向扩展(scale-out)网络产品组合的实力。

我记得去年上半年,你们在Spectrum-X以太网交换平台上的年化运行率(run rate)约为100亿美元。看起来去年下半年这个数字可能已经跃升至110亿到120亿美元左右。仁勋,看看你们的订单簿,特别是随着Spectrum-XGS以及即将推出的102T Spectrum 6交换平台的发布,目前Spectrum的运行率趋势如何?你如何看待今年结束时的情况?

黄仁勋: 正如你所知,我们将自己视为一家AI基础设施公司。AI计算基础设施包括CPU、GPU,而我们发明了NVLink,将单个计算节点“向上扩展(scale up)”成一个巨大的计算服务器机架。我们发明了机架级计算机的概念。我们交付的不是单个计算节点,而是整机架的计算机。

然后,这个NVLink交换机的向上扩展系统,会使用Spectrum-X和InfiniBand进行“横向扩展(scale out)”——这两种方式我们都支持。更进一步,我们还使用Spectrum-X进行跨数据中心的扩展。因此,我们思考网络的方式实际上是一种延伸,我们开放性地提供一切,以便人们可以决定如何在不同的规模下进行混合和匹配,或者按照他们希望的任何方式将其整合到他们定制的数据中心里。

但归根结底,这都是我们平台的巨大组成部分。NVLink的发明真正为我们的网络业务注入了涡轮动力。每个机架都配有九个网络交换节点,每个节点内部有两个芯片。在未来,它们会有更多。

所以,我们每个机架处理的交换量确实令人难以置信。我们现在也是全球最大的网络公司。如果你看看以太网领域,我们大约两年前进入了以太网交换市场。我认为我们今天很可能已经是世界上最大的以太网网络公司,肯定很快就会名副其实。

Spectrum-X以太网对我们来说是一个本垒打(巨大成功)。但我们对人们想要采用的任何网络方式持开放态度。有些人就是非常喜欢InfiniBand的低延迟和向上扩展能力,当然我们会继续支持这一点;而有些人喜欢基于以太网在整个数据中心整合他们的网络。我们创造了一种以太网功能,将以太网与数据中心处理人工智能的方式相结合,我们在这一点上做得非常出色。

我们的Spectrum-X性能确实证明了这一点。当建立一个100亿或200亿美元的AI工厂时,在数据中心网络效率和利用率上哪怕只有10%(很容易达到20%)的差异,这也将转化为实打实的真金白银。所以,英伟达的网络业务真的、真的增长得非常快。我认为这只是因为我们在构建AI基础设施方面非常有效,而且AI基础设施业务的增长快得惊人。

接线员:您的下一个问题来自Cantor Fitzgerald的CJ Muse。您的线路已接通。

CJ Muse 下午好。感谢接受提问。鉴于大上下文窗口应用、Grok以及可能需要添加特定解码解决方案的情况,我很好奇我们该如何看待你们未来的路线图。 我们是否应该预期,根据工作负载或特定客户进行定制化的芯片设计(Customized Silicon)将越来越成为英伟达的重点?特别是借助于你们向“裸片互连/Chiplet架构(die-to-die/dial-in)”的转变?非常感谢。

黄仁勋:不,我们不这样认为。大家都应该希望尽可能地推迟使用裸片互连(die-to-die)。

原因在于,每次你跨越一个裸片互连接口,你都增加了一道接口。每次跨越接口,你就会不可避免地增加延迟,无谓地增加功耗。我们并不排斥裸片互连技术,实际上我们已经在使用了,但我们尽量只有在别无选择的情况下才使用它。所以,如果你看看Grace Blackwell架构和Rubin架构,我们使用的是两块达到光刻掩模极限(reticle-limited)的巨型芯片,并且将它们结合在一起,这样减少了架构跨越。

这种互连(接口)的损耗会在竞争对手的架构效能中显现出来。说到英伟达,人们常称之为我们的软件优势,但究竟哪里是软件的功劳,哪里是架构的功劳,其实很难区分。我们的软件之所以高效,是因为我们的架构太优秀了。

CUDA架构毫无疑问比市面上的任何计算架构都更有效、更高效,能提供更高的每瓦浮点运算性能,这是因为我们的架构设计方式。

关于我们如何看待Grok以及低延迟解码器,我有一些很棒的想法,希望能GTC大会上与你分享。但最简单的理念是:得益于CUDA,我们的基础设施具有令人难以置信的多功能性,我们将继续保持这一点,我们所有的GPU在架构上都是兼容的。这意味着,当我今天致力于为Blackwell优化模型时,所有这些针对优化软件栈和新模型所付出的努力和投入,也会使Hopper受益,也会使Ampere受益。这就是为什么在我们将其部署到世界各地数年后,A100依然感觉很新且性能依然出色的原因。

架构兼容性让我们做到了这一点。它让我们能够在软件工程和优化上投入巨资,因为我们知道,我们在云端、本地、以及任何地方运行的各代GPU架构的整个安装基数都将从中受益。

我们将继续这样做,它让我们能够延长产品的使用寿命,赋予我们创新的灵活性和速度。这一切为我们的客户转化为性能,并非常重要的是——转化为每美元性能和每瓦性能。所以,关于我们将与Grok做什么,你来GTC大会就知道了。但我们将做的是,用Grok作为加速器来扩展我们的架构,这与我们当年用Mellanox扩展英伟达架构的方式非常相似。

接线员:下一个问题来自伯恩斯坦研究公司(Bernstein Research)的Stacy Rasgon。您的线路已接通。

Stacy Rasgon:大家好,谢谢接受我的提问。Colette,我想深入探讨一下关于全年环比增长的预期。本季度你们数据中心业务环比增长了超过100亿美元,而业绩指引似乎暗示这种势头将继续。 随着我们经历这一年,尤其是当Rubin在这个间隔期内开始爬坡时,你如何看待这一趋势?Blackwell带来了非常大规模的环比增长加速,当我们过渡到Rubin时,我们是否应该期待类似的情况? 另外,我也希望你能谈谈对游戏业务的预期。我理解内存限制和其他一切问题。你认为游戏业务在2027财年仍能实现同比增长吗,还是因为内存问题将面临更大压力?请回答这两个问题。谢谢。

Colette Kress:谢谢,Stacy。让我先从未来的营收开始说起。我们试图逐个季度来看待营收情况。

当思考全年时,毫无疑问我们仍将销售和提供Blackwell,可能与此同时我们也看到Vera Rubin推向市场。这是一个非常棒的架构,能立刻帮助他们快速搭建系统。我们已经在多个不同客户中规划了许多不同的订单来提供这款产品。目前还无法确定Vera Rubin在下半年早期的爬坡能占多少比例,但毫无疑问,对其的需求和兴趣是非常强烈的。

我们预期几乎每个客户都会购买Vera Rubin。问题仅仅在于,我们推向市场的速度有多快,以及他们能在各自的数据中心里多快将其搭建起来。这是你的第一部分问题。

第二部分是关于我们的游戏业务。尽管我们非常希望能有更多的供应,但我们确实认为在接下来的几个季度里,供应将会非常紧张。如果,到年底情况有所改善,那么从同比增长的角度来看还是有机会的。但目前我们判断还为时过早,一旦有了更明确的消息,我们会尽快回复你。

Sarah:下一个问题来自花旗集团的 Atif Malik。

Atif Malik:感谢公司接受提问。Jensen,随着 AI 领域的投资更多向推理负载倾斜,能否谈谈 CUDA 的重要性?

黄仁勋:我们推出的 TensorRT-LLM 是目前性能最优的推理架构,而要针对 NVL 平台对其进行优化,就需要在 CUDA 之上,研发并创新全新的并行化算法。推理工作的核心是负载分配,充分发挥算力的聚合优势。智能体系统会生成多个智能体协同工作,由此产生的令牌数量呈指数级增长,这就要求推理速度实现大幅提升。推理速度的提升,结合令牌的商业化,将直接转化为客户的营收 —— 数据中心的千兆级算力,直接对应着营收规模。

如今,所有云计算服务商和超大规模云计算企业都已认识到这一点:资本支出转化为算力,而优秀的架构能让算力最大化转化为营收,简言之,算力即营收。当下不投入算力建设,未来就无法实现营收增长,这已是行业的普遍共识。架构的重要性不言而喻,其战略价值进一步提升,直接影响企业的盈利水平。选择每瓦性能最优的架构,成为企业的核心决策。

Sarah:下一个问题来自 Melius Research 的 Ben Reitzes。

Ben Reitzes:感谢公司接受提问。首先,我为公司将基于股票的薪酬支出纳入非 GAAP 核算点赞,这一举措非常好。关于毛利率 —— 公司表示长期毛利率将维持在 75% 左右,结合公司对 2027 日历年供应充足的判断,这是否意味着毛利率将在 2027 年前保持稳定?另外 Jensen,2027 年之后,公司是否有内存消耗相关的创新技术推出,以进一步支撑毛利率的长期稳定?

Colette Kress:推动公司毛利率提升的核心关键,是为客户持续打造跨代际的技术领先优势,这是唯一且最重要的因素。如果我们能实现跨代际的每瓦性能提升,其幅度远超摩尔定律的极限;如果我们能实现每美元性能的大幅提升,且远超系统成本和产品定价的涨幅,那么公司的毛利率就能长期保持稳定。这是最核心的逻辑。

公司之所以保持高速创新,核心原因有两点:一是智能体 AI 带来的令牌需求呈指数级增长,这一拐点已清晰显现,全行业都有目共睹;二是推出已有 6 年的 GPU 在云计算领域仍供不应求,产品定价持续走高,足以见得市场对算力的需求之迫切。

未来,软件研发对算力的需求将呈指数级增长,这一趋势已十分明确。因此,我们的战略是每年推出一套全新的 AI 基础设施 —— 今年我们推出了 6 款全新芯片,Rubin 平台的下一代产品也将保持这一节奏。我们承诺,每一代产品都将实现每瓦性能和每美元性能的跨越式提升。极致的协同设计能力,让我们能持续为客户创造价值,这是我们实现价值交付的核心关键。

Toshiya Hari:下一个问题来自 New Street Research 的 Antoine Chiketan。

Antoine Chiketan:感谢公司接受提问。想请教一下太空数据中心的相关问题,部分客户正考虑布局该领域。您认为太空数据中心的可行性如何,落地时间预计在何时?目前其经济效益如何,未来将如何演变?

黄仁勋:目前,太空数据中心的经济效益较差,但未来将持续改善。太空的运行环境与地球截然不同:太空拥有丰富的能源,但太阳能电池板的体积巨大,不过太空的空间资源充足;太空环境低温,利于散热,但没有空气流动,只能通过热传导实现散热,因此需要配备体积较大的散热器。液冷技术显然无法应用,因为冷却液重量大,且存在泄漏风险。

因此,太空数据中心的技术方案与地球存在显著差异,但目前已有多种技术路线在竞争落地。值得一提的是,MPS 已成为全球首款进入太空的 GPU,Hopper 架构芯片也已部署至太空。GPU 在太空的核心应用场景之一是成像 —— 借助光学技术和 AI,实现超高分辨率成像,通过多角度投影计算、超分辨率重建和降噪处理,快速完成大规模的超高分辨率成像。

如果将太空采集的 PB 级成像数据传回地球处理,难度极大;而在太空直接完成数据处理,可筛选出有价值的信息,大幅提升效率。因此,AI 在太空领域将拥有极具前景的应用场景。

Toshiya Hari:下一个问题来自 Evercore ISI 的 Mark Zapakos。

Mark Zapakos:感谢公司接受提问。Colette,您在发言中提到超大规模云计算企业贡献了超 50% 的营收,但数据中心业务的增长主要来自其他客户。想确认一下,这是否意味着非超大规模云计算客户的增速更快?如果是,这些客户的业务布局与超大规模云计算企业是否存在差异,还是只是规模不同?公司是否预计非超大规模云计算客户未来将成为业务的核心增长点?

黄仁勋:正如我们所说,头部五大云计算服务商和超大规模云计算企业贡献了约 50% 的营收。我们的客户类型丰富,涵盖 AI 模型研发商、平台服务商等,且全球客户的多元化程度正持续提升,这一趋势将为公司生态系统发展带来积极影响。

Colette Kress:我们的产品覆盖所有云计算平台和边缘计算领域,目前正积极布局电信行业,推动电信网络成为全新的计算平台。这一趋势已成定局,而实现这一目标需要技术创新,我们推出的 Ariel 平台正是为此打造。从自动驾驶汽车到各类智能设备,均能体现英伟达的技术实力。

CUDA 兼具两大优势:一方面,能发挥 GPU 中张量核心的专用处理器性能优势;另一方面,其灵活性可支持解决语言、计算机视觉、机器人、生物学、物理学等多领域的 AI 问题,以及各类计算算法问题。因此,客户群体的多元化是公司的核心优势之一。

其次,生态系统的建设至关重要 —— 即便处理器具备可编程性,若缺乏完善的生态系统,公司也难以突破外部生态的限制,实现超越。而英伟达打造的平台,让我们能持续拓展生态系统的边界。

最后,与 OpenAI、Anthropic、xAI、Meta 等企业的合作,让英伟达的技术得到全球所有开源社区的验证。Hugging Face 平台上的 150 万个人工智能模型,均能基于英伟达的 CUDA 运行。开源社区的模型总量堪称全球第二大模型体系 ——OpenAI 的模型体系规模居全球首位,开源社区紧随其后。英伟达能支持所有开源模型的运行,让我们的平台具备高度的通用性、易用性和投资安全性。

这一系列优势,造就了我们多元化的客户群体、丰富的平台布局,产品覆盖全球所有国家,为全球生态系统提供技术支持。

Toshiya Hari:下一个问题来自 Wells Fargo 的 Aaron Rakers。

Aaron Rakers:感谢公司接受提问。围绕平台和极致协同设计,有消息称英伟达正推动 Vera CPU 独立商业化。Jensen,能否谈谈在未来的架构发展中,英伟达的核心定位?这一举措是否主要由负载的普及和异构化驱动?英伟达将如何布局独立 CPU 业务?

黄仁勋:感谢提问。更多细节将在 GTC 上公布,目前可透露的是,我们的 CPU 架构设计与行业主流存在本质差异,是业内唯一支持 LPDDR5 的产品,专为超高数据处理能力打造。

核心原因在于,我们关注的绝大多数计算问题均以数据为核心,AI 就是典型代表。我们的 CPU 在单线程性能与带宽的平衡上,达到了行业顶尖水平。这一架构设计的考量,覆盖了 AI 的全流程:在训练前的数据处理阶段、训练阶段,以及训练后的推理阶段,都需要强大的数据处理能力。如今,AI 已具备工具使用能力,而这些工具大多运行在纯 CPU 环境,或 CPU-GPU 加速环境中。

Vera CPU 正是为 AI 训练后的阶段量身打造,在 AI 全流程的诸多应用场景中,都需要大量的 CPU 支持。我们同样重视 CPU 的研发,与 GPU 形成协同。当算法加速达到极限时,阿姆达尔定律告诉我们,高性能的单线程 CPU 至关重要 —— 这也是我们将 Grace CPU 的单线程性能做到极致的原因,而 Vera CPU 的单线程性能较 Grace 又实现了质的飞跃。

Tim Arcuri:感谢公司接受提问。想请教一下公司的资本配置策略。我们知道公司大幅增加了采购承诺,似乎已度过资本投入的高峰期,且今年预计将实现约 1000 亿美元的现金流。尽管公司业绩表现优异,但股价并未出现明显上涨,因此市场认为当前是公司大规模回购股票的最佳时机。为何公司不明确表态,推出大额股票回购计划?

Colette Kress:感谢提问。我们对资本返还策略进行了审慎考量,认为支持前沿生态系统的建设是公司的核心要务之一。这一建设覆盖全产业链:上游,我们与供应商合作,保障产能供应,助力其提升产能;下游,我们支持 AI 解决方案的早期开发者,推动其基于英伟达平台开展研发。因此,生态系统投资将始终是公司资本配置的核心环节,同时我们也会持续推进战略投资。

当然,公司仍在持续开展股票回购和股息分红,并将在年内寻找合适的时机,把握独特的投资机会,推进相关资本运作。

Sarah:最后一个问题来自高盛集团的 Jim Schneider。

Jim Schneider:感谢公司接受提问。Jensen,您此前曾预测 2030 年全球数据中心资本支出规模有望达到 3 万亿至 4 万亿美元,这意味着行业增速将进一步加快,而公司也指引下一季度营收将继续加速增长。想请教一下,推动这一增长拐点的核心应用领域有哪些?是实体 AI、智能体 AI,还是其他领域?您是否仍看好 3 万亿至 4 万亿美元的市场规模目标?

黄仁勋:我们从多个角度来分析这一问题。首先从底层逻辑来看,未来基于 AI 的软件开发,将以令牌为核心驱动。如今,行业普遍关注令牌经济,数据中心的核心功能是生成令牌,推理的本质也是生成令牌,英伟达的核心业务正是为令牌生成提供算力支持。我们常说,英伟达 NVLink 72 系统让令牌生成的每单位能源性能提升了 50 倍,足以见得令牌生成已成为未来软件和计算领域的核心。

回顾过去,传统软件开发对算力的需求,与未来 AI 时代的算力需求相比,可谓微乎其微。AI 已全面落地,且将持续发展、不断完善,不会倒退。过去,全球每年在传统计算领域的投资约为 3000 亿至 4000 亿美元,而 AI 的到来,让算力需求较传统计算提升了上千倍 —— 未来的算力需求将呈现爆发式增长。

只要 AI 能持续创造价值(这一点我们稍后会详细说明),全球就会持续投资算力建设,以满足令牌生成的需求。因此,全球对令牌生成能力的需求,远非 7000 亿美元的资本支出所能满足。我坚信,全球将持续推进令牌生成能力建设,不断加大算力投资 —— 核心原因在于,所有企业的发展都依赖软件,而所有软件的未来都离不开 AI,因此所有企业都将参与令牌生成。这也是我们将数据中心称为 “AI 工厂” 的原因。

无论是云计算服务商,都需要 AI 工厂生成令牌,推动营收增长;企业级软件公司,需要通过令牌生成为其工具之上的系统提供支持;机器人制造企业和自动驾驶汽车企业,早已显现这一趋势 —— 其背后都有超算中心作为支撑,而这些超算中心本质上就是 AI 工厂,为设备生成令牌,赋予其 AI 能力;同时,设备内部也需要配备计算芯片,实现令牌的持续生成。因此,我们坚信,这就是计算领域的未来。

为何这一未来趋势具有高度确定性?因为传统软件开发采用的是预录制模式,所有内容都提前设定 —— 软件提前编译、内容提前编写、视频提前录制;而 AI 时代的软件开发,所有内容都通过实时生成实现。基于实时生成,软件能结合用户特征、场景、查询需求和意图,生成个性化的结果,这就是我们所说的 AI,即智能体 AI。这种实时生成的模式,对算力的需求远高于传统的预录制模式。

就像计算机的算力远高于预录制的 DVD 播放器一样,AI 对算力的需求,也远非传统软件开发所能比拟。

从计算机科学的底层来看,这种算力需求的提升具有必然性,是未来计算领域的发展方向;从产业层面来看,所有企业的核心竞争力最终都将体现在软件上,云计算企业更是如此。如果新的软件模式需要通过令牌生成实现价值,且令牌能实现商业化,那么数据中心的建设自然会直接推动企业营收增长 —— 算力驱动营收,这一点已成为行业的普遍共识。

最后,AI 为全球创造的价值,最终都将转化为企业营收。目前,智能体 AI 已迎来发展拐点,这一拐点在过去两三个月内已清晰显现 —— 其实在行业内部,我们半年前就已察觉到这一趋势。如今,全球都已意识到智能体 AI 的发展潜力:智能体的智能水平已达到实用级,能解决实际的商业问题。

如今,代码开发已全面由智能体 AI 系统支撑,英伟达的所有程序员都在使用相关工具 ——Claude Code、OpenAI Codex,或是 Cursor,具体根据使用场景选择,有时甚至会同时使用多款工具。智能体已成为程序员的合作伙伴、工程研发的协作方,助力解决各类研发问题。相关企业的营收也因此实现爆发式增长 —— 例如 Anthropic,营收在一年内增长了十倍,目前因产能限制,无法满足市场的旺盛需求。令牌需求呈指数级增长,生成速度也在持续提升,OpenAI 也面临着同样的情况,市场需求十分迫切。

因此,企业的算力部署速度越快,营收增长就越迅速。这也印证了我之前的观点:推理即营收,算力即营收,这就是 AI 新时代的核心逻辑。从诸多方面来看,这标志着新一轮工业革命的到来 —— 全新的工厂和基础设施正在建设,这种全新的计算模式,将成为未来的主流,不会倒退。

因此,只要我们坚信令牌生成是计算领域的未来(我对此深信不疑,且行业也普遍认可),全球就会持续推进算力基础设施建设,并不断扩大规模。目前,我们正迎来智能体 AI 的发展浪潮,而接下来的下一个浪潮,就是实体 AI—— 将 AI 和智能体系统应用于制造业、机器人等物理领域,这一领域将为我们带来巨大的发展机遇。

Toshiya Hari:本次问答环节到此结束。最后提醒各位,Jensen Huang 将于 3 月 4 日参加在旧金山举办的摩根士丹利科技、媒体和通信行业大会,并参与炉边谈话;3 月 16 日,他将在圣何塞举办的 GTC 上发表主题演讲。公司 2027 财年第一季度财报电话会议定于 5 月 20 日召开。感谢各位的参与,操作员请结束本次会议。

Sarah:感谢各位,本次电话会议到此结束,各位可挂断电话。

来源:英伟达财报会实录| 黄仁勋扫清市场忧虑:AI新时代 算力即营收! | 财联社

声明:本文来自财联社,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯