芝能科技出品
CES 2026 英伟达首席执行官黄仁勋主题演讲中,有关自动驾驶和机器人的部分,我们单独拿出来讨论下。
主要的核心要点:英伟达首款全栈自动驾驶汽车将于 2026 年第一季度在美国上路测试。
01
L4级别的自动驾驶
英伟达全栈自动驾驶汽车将于 2026 年第一季度在美国上路测试 ,2027 年与合作伙伴共同测试 L4 级自动驾驶出租车(Robotaxi)服务,在特定区域实现无人干预驾驶,目的也是直接进入L4的业务,将汽车业务打造为继 AI 之后的第二大增长极。
L4 级自动驾驶借助了基础模型、端到端架构、推理模型等 AI 突破性技术,从而能够从容应对各种复杂场景,测试初期将采取“有限开放”模式,英伟达突破芯片和软件供应商的角色,涉足自动驾驶车队运营。
CEO 黄仁勋认为,包括自动驾驶在内的机器人技术是公司仅次于 AI 的最重要增长类别,他设想未来将有十亿辆自动驾驶汽车上路,涵盖个人拥有和租赁运营两种模式。
在算法层面,英伟达采用独特的“双系统”安全策略:
◎ 基于“端到端”视觉语言模型的 AI 系统,负责感知环境与规划路径;◎ 基于严格规则的“安全栈”,用于在 AI 决策不确定时(如遇到停止标志)强制接管车辆,确保行车安全。
英伟达计划在 2026 年底让奔驰车型具备城市导航能力,并目标在 2028 年实现消费级车辆的“点对点”自动驾驶,最终利用生成式 AI 让汽车具备类似人类的交互与驾驶能力。
在机器人领域,黄仁勋在 CES 上提出一个判断:物理 AI 的“ChatGPT 时刻”正在逼近。
问题的根源很清晰——物理世界极其复杂,而真实世界数据的采集既慢又贵,无论投入多少都不可能“足够”。在这样的前提下,合成数据不再是权宜之计,而是绕不开的一条路径。
围绕这一方向,英伟达推出了用于理解和生成物理世界视频的 Cosmos,以及面向机器人和自动驾驶的基础模型体系,包括机器人通用模型 Isaac GR00T 和自动驾驶的视觉-语言-行动模型 Alpamayo。
这些开源的物理 AI 世界基础模型,利用海量视频、真实驾驶与机器人数据,并结合 3D 仿真进行预训练,核心目标是理解“世界是如何运转的”,并把语言、图像、三维结构和动作行为统一到同一个模型框架中。
◎ Cosmos 展示了物理 AI 能力的上限,可以生成内容、进行物理推理,仅凭一张图像预测运动轨迹;也能基于 3D 场景生成高度逼真的视频,用驾驶数据合成符合物理规律的运动过程,甚至从模拟器、多摄像头画面或文字描述中生成全景视频,用来还原现实中极为罕见的场景。
◎ Alpamayo 则面向自动驾驶,是一个完整开源的工具链,也是首个开源的视觉-语言-行动(VLA)推理模型。
与以往只开放算法或代码不同,英伟达这次直接开源了从数据、训练到部署的完整开发资源,这是一种“推理型”的自动驾驶模型。
传统自动驾驶系统遵循的是“感知-规划-控制”的流水线逻辑:看到红灯就刹车,检测到行人就减速,本质上是在执行预设规则。
在复杂场景中进行因果推理,理解其他交通参与者的意图,并完成多步决策。在十字路口,Alpamayo不只是识别“前方有一辆车”,而是能够推理“那辆车可能要左转,因此我应该等待它先通过”,迈向更接近人类思考方式的阶段。
黄仁勋宣布英伟达DRIVE系统正式进入量产阶段,首个应用是全新的梅赛德斯-奔驰CLA,计划2026年在美国上路。这款车将搭载L2++级自动驾驶系统,采用“端到端AI模型+传统流水线”的混合架构。
02
机器人和物理AI
Boston Dynamics、Franka Robotics、LEM Surgical、LG Electronics、Neura Robotics和XRlabs在内的全球机器人领军企业,正在基于英伟达Isaac平台和GR00T基础模型开发产品,覆盖了从工业机器人、手术机器人到人形机器人、消费级机器人的多个领域。
不同形态、不同用途的机器人,从人形机器人、双足与轮式服务机器人,到工业机械臂、工程机械、无人机与手术辅助设备,从物理AI应用到RubinAI计算平台,再到推理上下文内存存储平台和开源AI“全家桶”。
小结
英伟达在CES上的自动驾驶和机器人的信息,增量并没有那么多,主要是芯片领域的内容多一些,物理 AI 需要持续思考、长期运行,并真正进入现实世界,这是一个长期的过程。
原文标题 : CES 2026|英伟达的机器人和自动驾驶布局