新京报客户端

好新闻 无止境

立即打开
北京人形开源首个通过具身智能国标测试的具身大模型XR-1
新京报 记者 韦博雅 编辑 岳彩周
2025-12-21 13:00

新京报贝壳财经讯(记者韦博雅)12 月 18 日,北京人形机器人创新中心正式开源国内首个且唯一通过具身智能国标测试的具身VLA大模型 XR-1,以及配套的数据基础RoboMIND 2.0、ArtVIP 最新版。基于上述开源成果,能够推动具身智能行业追寻最本质需求,让机器人真正在各类应用场景下能干活并且会干活,推动国内具身智能行业迈向“全自主、更好用”的新阶段。

本次开源的系列内容,是面向具身小脑能力的VLA模型XR-1,以及为XR-1等模型提供数据训练支持的RoboMIND 2.0和ArtVIP。

北京人形介绍,跨本体VLA模型 XR-1具备多场景、多本体、多任务特性,并且还拥有高泛化性等优势特点。背后的技术原理在于,XR-1具备跨数据源学习、跨模态对齐、跨本体控制三大核心支柱能力。首先,通过跨数据源学习让机器人能够利用海量人类视频进行训练,降低训练成本提升训练效率;其次,依靠跨模态对齐能够打破视觉和动作的隔阂,让机器人做到真正的知行合一;最后,借助跨本体控制可以让XR-1快速匹配不同类型、不同品牌的机器人本体。

北京人形首创的UVMC(多模态视动统一表征)技术是关键,它能够搭建起视觉与动作的映射桥梁,让机器人将看到的画面瞬间转化为身体的本能反应,像人类条件反射般自然做出正确的应对动作。XR-1的多构型预训练能力,使具身天工2.0具备全身多关节丝滑拟人控制,可实现大幅弯腰下蹲并精准抓取随机摆放的物料箱,完成复杂倒料任务

RoboMIND 2.0则在此前版本基础上进行了全面的升级。机器人操作轨迹数据增加到了30+万条、扩展了工业零件分拣、流水线设备、物理化学实验室、家庭厨房、家电交互等在内的11个涵盖工业、商用、家庭的场景,机器人本体、任务、技能数量也分别有了2倍以上的提升。同时,增加了1.2+万条带触觉操作数据支持训练VTLA、MLA模型,还可用于训练机器人大小脑模型,并开源了基于ArtVIP的大量仿真数据。


编辑 岳彩周

校对 卢茜

来阅读我的更多文章吧
韦博雅
新京报记者
记者主页
相关推荐
看见2030“十五五”新图景丨人才缺口将达百万个 未来产业会解锁哪些新职业
新京号
在中国“未来之城”感受全域智能
新京号
北京人形机器人创新中心发布开源开放生态计划
北京
北京人形发布开源开放生态计划,推动形成具身智能行业标准
科技
乘势而上 智能经济打开发展新空间
新京号
超百支队伍报名北京亦庄人形机器人半马,近四成为自主导航赛队
北京
深圳诞生百亿估值具身智能独角兽,被称为“中国版特斯拉机器人”
新京号
创新的中关村,见证科技革命的“奇点时刻”
新京号
具身智能:从场景落地到产业崛起
新京号
探访|人形机器人智能化的核心密码,藏在这座数据工厂里
科技

新京报报料邮箱:82708677@bjnews.com.cn