芝能科技出品
中邮证券电新团队(苏千叶/盛炜/杨帅波)做了一个深度的拆解报告,宇树科技凭借全年出货超5500台,登顶全球出货量第一,这款量产量产机型。
这里主要分享感知部分。
◎ 宇树G1人形机器人在感知系统的构建上,于头部集成了LIVOX-MID360 3D激光雷达与Intel RealSense D435i深度相机的双感知组合,构成了机器人的核心“环境感知中枢”,通过不同传感器的优势互补。
◎ 在远距离感知与空间建模方面,大疆MID360激光雷达发挥了关键作用,实现水平360°、垂直最大59°的全向覆盖,这种广阔的探测范围消除了视觉盲区,输出高精度的点云数据,实时的SLAM建图,还能进行远距离障碍物检测与环境三维重构。
◎ 针对近距离的细节捕捉与视觉定位,英特尔D435i深度相机则提供了高帧率的彩色与深度视觉信息,有效补全了激光雷达在近场感知上的细节,二者视场互补,共同构建了完整的视觉感知体系。
机器人还搭载了准线性四硅麦阵列(麦克风间距20mm)与峰值功率5W的扬声器,构建了“听觉-发声”交互中枢,这不仅支持自然语音对话和声控指令执行,还为二次开发适配多模态AI交互需求预留了空间。
从系统运作流程来看,感知层、决策层与执行层之间实现了高效协同。
◎ 激光雷达和深度相机采集的三维点云与深度图像,为保证高带宽和低延迟,不走CAN总线,而是通过独立高速串口或USB直接传输至主控板。
◎ 决策层由RK3588(或高配版的Orin NX)主导,运行深度强化学习算法及宇树机器人世界模型,执行复杂的步态规划、平衡计算与大模型避障决策。
◎ 主控将计算出的目标关节角度与扭矩,通过CAN高低线以菊花链形式高频下发至各肢体关节,各电机驱动板基于双编码器闭环反馈,完成毫秒级的精准控制动作。
原文标题 : 拆解宇树G1机器人:感知系统是如何设计的?