AI的“自我进化”:DeepMind发布SIMA 2,一场在虚拟世界中进行的AGI预演

AI的“自我进化”:DeepMind发布SIMA 2,一场在虚拟世界中进行的AGI预演

爱力方

爱力方

2025年11月14日 16:43
本文共计1528个字,预计阅读时长6分钟。
来源/互联网 责编/爱力方

在通往通用人工智能(AGI)的漫漫征途上,Google DeepMind投下了一枚极具分量的探路石。

该公司近日,以研究预览的形式,发布了其最新的多模态智能体——SIMA 2

image.png

这并非又一次在特定任务上的性能刷新。SIMA 2的核心突破,在于它展现出了一种更接近于“通用智能”的、两个关键的、更高层级的能力:

  1. 在新环境中,零样本(Zero-shot)地,完成复杂的、从未见过的指令。

  2. 在没有人类持续“喂养”数据的情况下,实现能力的“自我改进”。

SIMA 2的训练起点,与其前身SIMA 1类似,都是通过观看和学习数-百小时的人类玩视频游戏的录像,来进行预训练。

但其真正的革命性,在于它首次,引入了一个“自我生成数据”的、可持续的、闭环的学习循环

这个循环的运作机制,精妙而高效:

  1. 进入一个全新的、未曾见过的虚拟环境后,SIMA 2系统,会首先调用一个独立的、专门用于“创造任务”的Gemini模型,根据当前环境的特点,批量地、创造性地,生成出成百上千个可能的、全新的任务指令。

  2. SIMA 2会去尝试执行这些由AI自己生成的任务,并记录下其所有的行为轨迹。

  3. 一个内部的“奖励模型”,会对SIMA 2完成这些任务的表现,进行自动化的打分和评估。

  4. 那些被评为“高质量”的、成功的行为轨迹,会被自动地,筛选出来,并被用于对SIMA 2自身,进行下一轮的、持续的微调(Fine-tuning)。

这个闭环,从根本上,打破了传统AI训练,对于人类大规模、持续性数据标注的依赖。

AI,第一次,拥有了一个可以为自己“出题”,并从自己的“练习”中,自主学习和成长的能力。

image.png

这种“自我进化”的能力,带来了惊人的成果。

在《无人深空》(No Man’s Sky)等复杂的、开放世界的测试环境中,SIMA 2已经能够通过实时地“阅读”和“理解”环境中的文本、颜色和符号,来自主地,执行像“前往那栋红色的房屋”或者“去砍伐那棵长着蓝色叶子的树木”这类、需要多步推理和环境交互的复杂指令。

它甚至,可以理解由多个emoji(表情符号)组合而成的、非语言的、抽象的命令。

DeepMind在演示中,还将其与另一个前沿项目——生成式世界模型Genie——进行了结合。Genie可以即时地,为SIMA 2生成出照片般逼真的、全新的户外场景。而SIMA 2,则可以在这些“凭空创造”的世界中,准确地识别出长椅、树木、蝴蝶等不同的对象,并与之进行有意义的交互。

DeepMind的高级研究科学家Jane Wang指出,这种“看懂场景 → 推断目标 → 规划动作”的高层行为决策闭环,正是未来,要将虚拟世界中训练出的智能,成功地、无缝地,迁移到物理世界的实体机器人身上,所必需的、最核心的那个“大脑”模块。

但她也坦承,SIMA 2目前,还完全聚焦于这种高层级的“决策智能”。它不涉及任何关于机械关节、轮子或手臂的底层物理控制。

DeepMind同期,正在训练的、专注于物理控制的机器人基础模型,采用的是完全不同的技术路线。

未来,这两个分别专注于“大脑”和“身体”的项目,将如何进行最终的融合,目前,尚无定论。

爱力方的分析认为,SIMA 2的发布,其意义,已远超一个具体的产品或模型。

它更像是一次在虚拟世界中,进行的、关于“如何抵达AGI”的、一次重要的、方法论层面的**“彩排”**。

它清晰地,向我们展示了一条,不再仅仅依赖于“堆数据”和“堆算力”的、更为优雅和高效的、通往更通用智能的技术路径。

当AI,学会了如何为自己创造出无穷无尽的、高质量的“学习素材”时,它的进化速度,将不再受限于人类数据生产的物理瓶颈。

这场由DeepMind发起的、关于AI“自我进化”的实验,虽然目前仍处于研究预览阶段,但它所预演的,可能正是AGI最终诞生前的、那个最关键的“创世纪”时刻。

声明:本文来自互联网,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯