在通往元宇宙(Metaverse)的漫漫征途上,那道横亘在2D图像与3D世界之间的、最坚固、也最昂贵的技术壁垒,正被Meta AI,以一种近乎于“魔法”的方式,悍然攻破。
该公司近日,正式发布并宣布全面开源其Segment Anything系列的最新模型——SAM3D。

这并非又一次在3D重建精度上的渐进式改良。它是一次深刻的、旨在将3D内容创作,从一项需要专业技能和昂贵设备的“重工业”,彻底地,降维为一次简单的、“一键式”的平民化体验的范式革命。
其核心能力,只有一个:
仅需一张普通的、任意角度拍摄的2D照片,即可在数秒之内,生成一个带有完整纹理、逼真材质和几何一致性的、可被直接用于生产环境的3D数字资产。
SAM3D的发布,其最大的突破,在于它同时解决了当前主流3D生成技术(如NeRF和Gaussian Splatting)在处理真实世界图像时,所面临的两大核心痛点:物理不正确性和应用局限性。
为了实现这一点,SAM3D在技术架构上,采用了一种创新的“空间位置-语义”联合编码机制。
在处理一张2D照片时,它不仅仅是去猜测和“渲染”出一个看似立体的图像。
它会为照片中的每一个像素点,都去预测出其在三维空间中的精确坐标(X, Y, Z)和表面法向(Surface Normal)。
这种对“物理正确性”的执着,使得SAM3D所输出的3D模型,不再是一个只能从特定角度观看的“视觉幻象”。
它是一个真正拥有了体积、结构和表面信息的、坚实的“数字实体”。它可以被自由地,导入到任何标准的3D软件中,进行编辑、旋转、打光,并被直接地,应用于AR/VR、机器人模拟、游戏开发和影视后期等专业的生产流程之中。
为了满足不同场景的需求,Meta此次,同时发布了两套独立的、经过深度优化的模型权重:
-
SAM3D Objects: 面向通用的物体和场景重建。
-
在公开的3D重建数据集上,其关键的精度指标(如Chamfer Distance),相比于之前的最佳方案,降低了28%;而表面法向的一致性,则提升了19%。
-
-
SAM3D Body: 专注-于高保真的人像重建。
-
在权威的AGORA-3D人体姿态估计基准上,其MPJPE(平均每关节位置误差)指标,比现有的最佳单图重建方法,还要优秀14%。
-
更关键的是,其生成的3D人体模型,可以一键地,与Adobe的Mixamo等标准的骨骼动画系统,进行绑定和驱动。
-
Meta并未将这项强大的技术,封闭在自己的生态系统之内。
它选择了完全开源SAM3D的模型权重、推理代码,以及一整套用于评估和比较的基准测试集。
但与此同时,它也正在以一种极快的速度,将这项技术,深度地,整合进其自身的商业闭环之中。
-
消费端: 在Facebook Marketplace(其二手交易平台)上,一个名为“View in Room”(在房间中预览)的新功能,已经悄然上线。用户,现在可以将平台上的商品(例如,一张沙发),以3D模型的形式,通过手机的AR功能,实时地,投射到自己家的客厅中,来预览其尺寸和风格是否匹配。
-
开发者与创作者端: SAM3D的技术,也已被深度集成至其Quest 3头显和Horizon Worlds虚拟世界创作工具之中。开发者,可以通过其Edits与Vibes应用,以API的方式,调用该模型的生成能力。其商业定价,也极具竞争力:0.02美元/模型。
-
移动端: 官方宣布,将于2026年第一季度,正式发布能够支持在手机端,进行实时推理的移动版SDK。
爱力方的分析认为,SAM3D的发布,其意义,已远超一次单纯的技术突破。
它更像是一次深刻的“生产力平权”。
它将3D内容创作的门槛,从过去那种,需要掌握Maya、Blender等复杂软件的、少数专业人士的“专利”,第一次,真正地,下放到了每一个拥有智能手机的、普通的C端用户手中。
这对于电子商务、社交媒体、游戏开发乃至整个元宇宙生态的未来,都将产生不可估量的、深远的影响。
当每一个人,都能以近乎于零的成本,将自己身边的任何一个物理世界的物体,“复制”成一个可以被自由编辑和分享的数字孪生时,一个真正属于3D互联网的、内容大爆发的“创世纪”,才算真正地,拉开了序幕。
而Meta,通过开源其核心技术、同时又牢牢掌控其商业化应用的两端(Quest硬件与Horizon平台),正试图成为定义这个新时代的、那个最核心的“基础设施提供商”。