开源智能体MiroThinker v1.0发布:256K上下文支持600次工具调用,提出“深度交互Scaling”框架

开源智能体MiroThinker v1.0发布:256K上下文支持600次工具调用,提出“深度交互Scaling”框架

MiroMind团队开源发布智能体模型MiroThinker v1.0,具备256K上下文窗口和单次600次工具调用能力。创新提出'深度交互Scaling'框架,通过高频环境交互替代传统参数堆叠,实现智能体自主进化。模型集成搜索、代码执行等工具链,可数小时内完成复杂任务闭环,官方示例展示了全程零人工干预的低糖甜品方案制定。支持24GB显存本地部署,兼容主流开发框架。

8
0

仅0.77B参数碾压3.5B大模型!上海交大Evo-1刷新VLA模型纪录,集成lerobot框架可用于SO100/SO101部署

仅0.77B参数碾压3.5B大模型!上海交大Evo-1刷新VLA模型纪录,集成lerobot框架可用于SO100/SO101部署

上海交大Evo-1模型仅用0.77B参数在机器人VLA领域实现突破,无需机器人数据预训练即可超越3.5B大模型性能。该模型通过轻量化设计、16.4Hz高推理频率和创新训练范式,解决了参数臃肿、实时性不足、泛化能力弱和数据依赖四大核心问题,已集成lerobot框架支持SO100/SO101部署,为消费级GPU上的机器人智能操控提供高效解决方案。

0
0

总成本1250 美元!1分钟部署!TWIST2打造低成本人形机器人数据采集方案!

总成本1250 美元!1分钟部署!TWIST2打造低成本人形机器人数据采集方案!

TWIST2是一套低成本、便携式的人形机器人遥操作与数据采集系统,总成本仅1250美元,1分钟即可完成部署。该系统通过可拆装颈部模块、便携VR动捕设备和优化的动作重定向算法,实现了无动捕设备的全身控制能力,支持机器人自主完成复杂任务。研究团队已开源相关成果,为规模化人形机器人开发提供了高效解决方案。

机器人大讲堂
0
0

Nature子刊发表!中国地质大学团队研发刚-柔-软结构仿人手指,既能托举20倍自重,也能无损拿捏豆腐蛋黄

Nature子刊发表!中国地质大学团队研发刚-柔-软结构仿人手指,既能托举20倍自重,也能无损拿捏豆腐蛋黄

中国地质大学团队在《Nature Communications》发表突破性研究成果,研发出刚-柔-软复合结构仿人手指。该机械手指结合3D打印骨骼、柔性关节和硅胶皮肤,既能托举自重20倍的重物,又能无损抓取豆腐、蛋黄等脆弱物品,解决了传统机械手力量与柔顺性难以兼顾的技术难题,在服务、医疗和农业领域具有广泛应用前景。

机器人大讲堂
0
0

 AI的“自我进化”:DeepMind发布SIMA 2,一场在虚拟世界中进行的AGI预演

AI的“自我进化”:DeepMind发布SIMA 2,一场在虚拟世界中进行的AGI预演

Google DeepMind发布多模态智能体SIMA2预览版,依托Gemini2.5Flash-lite模型,任务成功率较前代提升约一倍。该版本首次引入自生成数据循环机制,无需人工标注即可在新环境中完成复杂指令,并能理解文本、符号甚至emoji组合命令。研究旨在验证通用机器人所需的高层世界理解与推理能力,为虚拟智能体向实体机器人迁移探索可行路径。

爱力方
0
0

摩尔线程发布URPO框架:大模型训练新范式获AAAI 2026认可

摩尔线程发布URPO框架:大模型训练新范式获AAAI 2026认可

摩尔线程在AAAI 2026会议上发布URPO框架,这是一种统一奖励与策略优化技术,通过将指令遵循和奖励评判功能整合到单一模型中,显著提升大语言模型的训练效率和性能。实验显示基于Qwen2.5-7B的URPO在AlpacaEval和RewardBench等基准测试中超越传统方法,为AI训练开辟了新路径。

0
0

北京人形开源最新VLM模型,推动具身智能再迈关键一步 !

北京人形开源最新VLM模型,推动具身智能再迈关键一步 !

北京人形机器人创新中心开源具身智能VLM模型Pelican-VL 1.0,这是目前全球性能最强的开源具身多模态大模型,性能超越GPT-5同类模型15.79%。该模型采用创新的DPPO训练范式,仅用其他模型1/10的数据量就实现最优性能,可大幅提升机器人在商业服务、工业作业等场景中的视觉-语言感知和任务规划能力。

机器人大讲堂
0
0

李飞飞World Labs放大招!Marble 3D世界模型公测,文本/图片秒变可交互虚拟宇宙

李飞飞World Labs放大招!Marble 3D世界模型公测,文本/图片秒变可交互虚拟宇宙

李飞飞World Labs推出Marble 3D世界模型公测版,支持从文本、图像、视频等多模态输入直接生成完整可交互的3D虚拟世界。用户可实时编辑导航,10分钟内创建风格多样的沉浸式环境,并导出高斯溅射、三角网格等多种格式。这一突破性工具将重塑游戏开发、VR/影视制作和AI训练等领域,推动从2D生成向3D空间智能的跨越。

0
0

中国科学院团队打造3D手型微纳机器人——“手到擒来”的微观“快递员”

中国科学院团队打造3D手型微纳机器人——“手到擒来”的微观“快递员”

中国科学院理化技术研究所研发出仅40微米大小的3D手型微纳机器人,采用飞秒激光直写技术制造,由pH响应模块和磁驱动模块组成。这款微观'快递员'能精准抓取、运输和释放细胞及微颗粒,最高移动速度达每秒65.56微米,在精准医疗、环境修复等领域具有广阔应用前景,为微观世界操作开辟了新路径。

0
0

宇树推出首款轮式人形机器人 G1-D,可选配移动底盘

宇树推出首款轮式人形机器人 G1-D,可选配移动底盘

宇树科技推出首款轮式人形机器人G1-D,配备完整的数据采集与模型训练解决方案。该机器人身高1260-1680mm,配备高清双目相机,可选配移动底盘实现≤1.5m/s移动速度。支持17-19个自由度,单臂负载3kg,可选多种灵巧手配置,搭载英伟达Jetson Orin模组,续航达6小时,适用于多种工业与科研场景。

0
0

文心大模型5.0重磅发布!百度推全球首个“原生全模态”大模型,李彦宏:智能本身就是最大应用

文心大模型5.0重磅发布!百度推全球首个“原生全模态”大模型,李彦宏:智能本身就是最大应用

百度在2024世界大会上正式发布文心大模型5.0,这是全球首个'原生全模态'大模型,实现了文本、图像、语音的底层统一表征与联合训练。该模型能自然处理跨模态复杂任务,推理效率和泛化性能显著提升。李彦宏强调'智能本身就是最大应用',文心5.0将通过千帆平台开放给开发者,并深度集成到百度全系产品中,推动AI像水电一样无处不在。

2
0

宇树科技重磅发布G1-D:集采集、训练、部署于一身的人形机器人工作站

宇树科技重磅发布G1-D:集采集、训练、部署于一身的人形机器人工作站

宇树科技发布G1-D人形机器人工作站,这是一套集数据采集、处理、标注、模型训练与部署于一体的全栈解决方案。以轮式人形机器人G1-D为核心,配备多高清相机,支持0-2米垂直作业空间和最高1.5m/s移动速度,全面兼容主流开源框架,大幅提升人形机器人AI模型研发效率,推动行业向'硬件+数据+AI'生态平台转型。

10
0

东北大学开源多语言翻译“核弹”!NiuTrans.LMT支持60语种234方向,低资源语言翻译重大突破

东北大学开源多语言翻译“核弹”!NiuTrans.LMT支持60语种234方向,低资源语言翻译重大突破

东北大学小牛翻译团队开源NiuTrans.LMT多语言翻译大模型,支持60种语言234个翻译方向,采用中英双中心架构打破英语霸权,特别在29种低资源语言翻译上取得重大突破。模型通过两阶段训练在FLORES-200基准测试中表现卓越,提供0.6B至8B四种参数规模,满足从移动端到企业级的多样化部署需求。

0
0

视频生成可控性再升级!可灵2.5Turbo模型上线“首尾帧”功能

视频生成可控性再升级!可灵2.5Turbo模型上线“首尾帧”功能

可灵2.5Turbo模型全新上线首尾帧功能,显著提升AI视频生成的可控性、稳定性和一致性。该模型在动态效果、文本响应精度、风格保持能力和美学效果等方面均有显著优化,为影视制作、短剧创作、游戏开发、动画制作及广告营销等专业创意领域提供更优质的解决方案。

0
0

解锁人形机器人灵巧操作智能—— 视触觉传感器或许是关键钥匙

解锁人形机器人灵巧操作智能—— 视触觉传感器或许是关键钥匙

本文探讨了视触觉传感器在人形机器人灵巧操作中的关键作用。文章指出当前机器人在精细操作上面临的触觉感知瓶颈,详细介绍了视触觉传感器的工作原理、系统构成和核心优势。通过将触觉信息转换为高分辨率视觉信号,这种传感器能同步感知力、纹理、滑动等多维信息,为机器人实现非结构化抓取和灵巧操作提供重要技术支撑。

0
0