中科院自动化所团队成功研发眼内手术自主机器人系统
中国科学院自动化研究所团队成功研发出自主显微眼科手术机器人系统,该系统通过创新的三维空间感知、精确定位和轨迹控制算法,实现了眼内手术的自主化操作。实验验证显示,该系统在视网膜下和血管内注射中达到100%成功率,定位误差较手动操作降低约79.87%,显著提升了手术的精确性、安全性和一致性,为眼科手术智能化发展开辟了新路径。
哈工大微型机器人登顶IEEE 节能杂技双突破
哈尔滨工业大学科研团队在国际顶级期刊上发表论文,提出一种名为FRDP的新型空间站自由飞行机器人。这款机器人重量仅600克,采用创新的双模态推进系统,既能高效节能巡航,又能灵活机动执行高精度任务。其设计灵感源自直升机矢量推进技术,通过双矢量推进模块实现六自由度精确控制,为空间站狭小环境下的自主作业提供了高效解决方案。
中科院沈阳自动化研究所等发布类生命机器人最新综述
本文介绍了类生命机器人这一前沿科技领域,探讨了由活体细胞与人工材料结合构建的‘半生命体’机器人如何融合生物高效能量利用与机器精准控制。文章基于中科院沈阳自动化研究所等团队的最新综述,系统解析了类生命机器人的进化历程、核心活体材料(如心肌细胞、骨骼肌细胞)和人工支撑材料(如聚合物、水凝胶),并展望了其在智能控制、医疗和环境监测等领域的未来发展方向。
英伟达推出 PersonaPlex-7B-v1 全双工语音交互技术
英伟达发布PersonaPlex-7B-v1全双工语音对话模型,采用单一Transformer架构实现端到端语音理解与生成,显著降低延迟并支持自然中断处理。该模型通过语音和文本双重引导实现深度个性化控制,在对话流畅度和任务达成率上表现优异,重塑了实时语音交互体验。
五校联手推出DeSa2VA框架,攻克多模态分割难题
五校联合团队推出的DeSa2VA框架解决了多模态分割中的模态鸿沟问题。文章重点介绍了HO-Cap解决方案,它通过低成本RGB-D相机和AR头显,结合半自动化AI标注流程,高效生成高精度手-物交互3D数据。配套开源的HO-Cap数据集包含65.6万帧数据,覆盖多种日常物体和交互场景,大幅降低了相关研究门槛,并可直接用于机器人操作、VR/AR等领域的训练与测试。
蚂蚁百灵推出Ling Studio 大模型交互平台上线
蚂蚁百灵大模型正式推出官方Web交互平台Ling Studio,为开发者和AI爱好者提供每日50万免费Token的激励,支持多款核心模型如Ling-1T、Ring-1T和Ming-flash-omni-Preview。平台具备直观对话界面、参数配置、系统提示词定制、联网搜索及API接口,未来还将扩展文件对话和图像生成等功能,旨在打造全能型AI交互中枢。
北大与BIGAI联合推出TacThru传感器 触觉视觉双感知提升操作精度
北京大学与北京通用人工智能研究院联合推出TacThru传感器,通过透明弹性体材质、关键线标记和高效追踪算法,实现了触觉与视觉的同步感知。结合TacThru-UMI模仿学习框架,该系统在拾取、分拣、插入等机器人操作任务中展现出85.5%的平均成功率,显著超越传统方案,为精细操作提供了突破性解决方案。
AI助力仿生人脸机器人学会开口说话 网红博主“U航”作品登顶国际期刊封面
胡宇航博士团队研发的仿生人脸机器人Emo登上《Science Robotics》封面,通过Facial Action Transformer自监督学习框架和10自由度柔性机械结构,实现了机器人唇部运动对任意语音的实时生成,解决了人形机器人说话时表情僵硬的难题。
美团开源工具LongCat-Flash-Thinking-2601发布,调用能力再创新高
美团LongCat团队开源了最新的AI模型LongCat-Flash-Thinking-2601,该模型在工具调用、智能体搜索和推理能力上达到开源模型的最高水平。其核心优势包括卓越的工具调用能力,显著降低真实场景中的训练成本,并提供免费的在线“重思考模式”体验,模拟人类深思过程。模型在编程、数学推理等多项评测中表现领先,并通过创新的评测方法验证了强大的泛化能力。
全球首个视频转3D具身数据集开源 动捕遥操或成过去
清华大学与枢途科技联合推出RoboWheel数据引擎,可将普通单目相机拍摄的人类手-物交互视频转化为适用于多种机器人的训练数据,并开源大规模数据集HORA。这一突破有望解决机器人学习领域的'数据荒'问题,降低对昂贵动捕设备的依赖,推动具身智能发展。
枢途开源HORA数据集:10万轨迹全视频采集,赋能通用具身训练
枢途科技发布业界首个从真实场景人类视频中提取的多模态具身智能数据集HORA,包含15万条高质量轨迹,覆盖多种实际应用场景。该数据集基于SynaData技术构建,支持毫米级轨迹提取和跨本体适配,有效解决传统数据采集成本高、通用性差的问题,为机器人技能训练提供完整、可直接使用的数据基础。
北大团队研发智能机器鱼,水下机器人能力再突破
北京大学谢广明教授团队在《Science Advances》发表研究成果,提出一种模块化自重构机器鱼群系统。该系统通过模仿鱼类多样运动方式,使机器鱼既能独立游动,又能根据任务需求拼接成不同构型,显著提升了水下机器人的运动性能、环境适应性和任务灵活性,为复杂水域探索与救援提供了创新技术方案。
MIT与UC伯克利团队研发LVP模型 机器人一瞥即可完成新任务
MIT、UC伯克利和哈佛联合团队开发的LVP模型,通过视频生成技术让机器人无需专门训练即可执行陌生任务。该模型利用140万条视频数据学习人类动作逻辑,并转化为机器人控制指令,在零样本测试中成功完成多种复杂任务,突破了传统机器人依赖特定动作数据的限制。
北大机器智能实验室研发机器鱼0.5秒完成形态转换
北京大学机器智能实验室在《Science Advances》发表研究,开发了一种基于张拉整体结构和仿生变刚度肌肉的多模态软体机器鱼。该机器鱼能在0.5秒内通过调节关节刚度,实现从高机动的鳗鲡模式到高速冲刺的金枪鱼模式等多种游动模态的自由切换,为揭示鱼类游动的生物力学机制提供了统一的实验平台,并在速度和灵活性上取得了突破。
Cell Reports Medicine发表!龙尔平万沛星团队推出医疗大模型框架MCC显著提升推理能力
中国医学科学院与北京大学团队在《Cell Reports Medicine》发表研究,提出MCC框架,通过多模型对抗与协作机制提升医疗AI推理能力。该框架模拟多学科专家会诊,实现交叉质证与协同决策,在MedQA等基准测试中准确率超过92.6%,刷新多项纪录,推动医疗AI向可靠、可解释方向演进。