温馨提示:本站为天鹅湖票务官方授权演出订票中心,请放心购买。
你现在的位置:首页 > 演出资讯  > 舞蹈芭蕾

宇树、智元人形优美舞姿背后密码

发布时间:2025-10-27 19:34:45  浏览量:1

当宇树最新H2人形机器人踩着节奏跳出跳舞,当智元机器人G2的灵巧手稳稳拉弓射箭,这些看似流畅的“拟人动作”背后,藏着一个容易被忽视的核心支撑——动捕技术。

在2025年IROS国际机器人与自动化展览会上,青瞳视觉展出的光惯混合动捕设备成为焦点:它仅用2~3台相机就能精准捕捉手指关节的细微动作,还能在玻璃、金属等强反光环境下稳定工作,一举解决了传统动捕“遮挡丢数据”、“惯性飘移”的行业痛点。

作为国内动捕领域的头部企业,青瞳视觉CEO张海威在近期接受机器人大讲堂独家采访中揭秘,动捕技术对人形机器人的价值,远不止记录动作这么简单,它既是教机器人走路、干活的教练,也是检验机器人性能的考官,更是破解行业数据稀缺、推动机器人落地的关键基础设施。

从宇树人形机器人的动作优化到智元机器人的灵巧手研发,从实验室的性能评测到工厂的技能考核,动捕正在成为人形机器人从“实验室样品”走向“产业产品”的隐形推手。

▍人形机器人进化三部曲

“人形机器人刚生产出来,就像刚出生的小孩,得教、得考。”张海威用一个生动的比喻,点出了动捕技术的核心价值。

在人形机器人产业中,动捕的作用集中在“训练”与“评测”两大环节,而这两个环节又细分为运动智能、作业智能、交互智能”三个层级,层层递进推动机器人从“会动”到“能动好”。

动捕的“教练”角色,首先体现在帮机器人建立运动智能,这是机器人最基础的生存能力。是让机器人学会像人一样行动的训练端,比如宇树H2的舞蹈动作、远征机器人的跳跃姿态,本质上都是通过动捕设备记录人类的大关节运动数据,如髋关节、膝关节的角度变化等,再将数据“复刻”到机器人身上。

张海威解释,运动智能的核心是让机器人掌握平衡与协调,比如走路时重心如何转移、转弯时关节如何配合,这些数据都需要通过高精度动捕采集。而比会跑会跳更重要的,是机器人的作业智能,也就是“会干活”的能力。这也是智元、优必选等企业研发灵巧手的核心诉求。

据悉,青瞳视觉早在去年就推出了光学手指动捕设备,能捕捉人类手指屈伸、抓握的细微动作,国内例如灵巧智能等多数灵巧手企业都在使用这套设备训练机器人。

“比如抓杯子,人类手指会根据杯子的形状调整力度,指尖关节的弯曲角度误差不能超过1度,传统动捕根本做不到这么精准。”张海威举例,但青瞳的手指动捕通过主动发光的编码Mark点,能区分每一根手指的关节位置,甚至能捕捉到“捏起一张纸”的力度变化数据。

在张海威看来,人形机器人更长远的目标,则是交互智能,也就是让机器人能与人、与环境自由交互。这比作业智能的范围更广:不仅要跟物交互,比如拧螺丝、开门,还要跟人交互,比如递东西时避开人的手臂等,甚至是机器人之间的协作。

“这才是真正的具身智能,”张海威强调,“比如工厂里两个机器人配合组装零件,一个递工具、一个拧螺丝,它们的动作衔接需要精准的时空同步,这就需要动捕设备记录人类协作的动作逻辑,再转化为机器人的交互数据。”这是人形机器人落地的基础。

▍从“教练”到“考官”

如果说训练是教本领,那评测就是“考资格”。

对于人形机器人而言,技术路线仍在早期,设计并未收敛,没有经过严格评测的动作,就是不安全的动作,这也是动捕技术的另一大核心价值。

在这种人形机器人的研发阶段,动捕无疑可以成为机器人的性能调优工具。例如青瞳的光学动捕设备可以记录人形机器人髋关节、踝关节的运动轨迹,对比人类正常走路的数据,找出人形机器人异常动作的根源,可能是膝关节的角度误差,也可能是重心转移的时机。

“就像给机器人做动作CT,”张海威说,“传统调优靠肉眼观察,误差大、效率低,而动捕能把动作精度控制在亚毫米级,调优效率提升10倍以上。”

到了出厂阶段,动捕又变成“质检官”。这一点可以参考扫地机器人的评测逻辑:扫地机器人需要检测避障精度、路线规划误差,人形机器人则需要检测行走稳定性、重复定位精度等指标。

例如某些厂商承诺“能连续行走10公里不摔倒”,动捕设备会记录它在不同地面的步态数据,甚至模拟被轻微碰撞的场景,检测它的抗干扰能力。

“现在很多企业说机器人踹一脚不倒,但踹多大力不倒、在什么地面不倒,这些都需要动捕量化评测。”张海威补充道,目前国内已有部分机构已联合青瞳搭建人形机器人评测线,重点检测“重复定位精度”,比如机器人多次抓取同一位置的螺丝,误差不能超过0.5毫米,这是保证工厂自动化生产的核心指标。

而当机器人进入应用场景,动捕还可以负责技能评估。

就像人类考驾照需要考科目二、科目三,机器人要进入工厂干活,也需要通过“技能考试”:例如“拧螺丝技能”,动捕会记录机器人拧螺丝的转速、力度、角度,判断它是否达到工厂的生产标准;又例如“居家服务技能”,会检测它递东西时是否会碰到人、开门时是否会夹手。

“只有通过评测的机器人,才能真正落地,”张海威强调,“这也是青瞳正在推进的重点,与检测机构合作,用动捕建立人形机器人的技能标准体系,进一步推动人形机器人走向标准化。”

▍“光惯混合”方案为何成为动捕未来

尽管动捕价值显著,但传统动捕技术一直存在两个“卡脖子”问题:光学动捕怕“遮挡”,惯性动捕怕“飘移”。

这两个问题,在人形机器人领域尤为突出,机器人的手指、关节很容易遮挡Mark点,而惯性动捕的累计误差会让机器人“越走越偏”。

在IROS展会上,青瞳视觉推出的“光惯混合动捕方案”,正是针对这两个痛点的创新解法。这套方案融合了光学动捕的“高精度”与惯性动捕的“连续性”,还加入了主动发光编码、去磁力计等独特设计,让光学动捕在机器人场景中的适用性大幅提升,做到了真正可用的“光惯融合”方案。

张海威对我们解释,传统的光惯混合多是“松耦合”,其方式主要通过光学和惯性各自输出完整动作数据,再取平均值融合。这种方式的缺点很明显,当光学丢数据时,惯性的飘移数据会拉低整体精度;惯性飘移时,光学的遮挡数据又无法修正。

青瞳的“紧耦合”方案则完全不同,它不依赖光学或惯性的成品数据,而是直接调用两者的原始数据,也就是光学的图像像素信息、惯性的加速度与角速度信息,通过算法实时交互校准。

比如当手指遮挡导致光学Mark点丢失时,惯性的原始数据会暂时“补位”,但同时会参考之前光学记录的位置信息,避免飘移;当惯性出现轻微误差时,光学的像素数据会实时修正。

“松耦合方案就像5个专家各自打分再平均,没人沟通,缺点全叠加了,但紧耦合方案就像5个专家一起讨论打分,优点互补,缺点抵消。”张海威解释,这套方案能让动捕的“数据连续性”更强,同时保持更高的定位精度,完全满足机器人的实时训练需求。

去磁力计+主动发光,从而适应复杂场景的“硬核设计”更是青瞳这套方案的亮点。

因为惯性动捕的另一个痛点是“磁场干扰”,手机、电脑、金属设备都会影响磁力计的方向判断,导致机器人“走偏”。青瞳的解法很直接:去掉磁力计,用光学数据实时校准惯性方向,并融合一定算法,从而彻底了解决飘移问题。

而针对传统光学动捕怕反光、怕噪声的问题,青瞳则创新了“主动发光编码Mark点”。传统Mark点需要相机打光反射,很容易被玻璃、金属的反光干扰,甚至空气中的灰尘都会产生“伪Mark点”。青瞳的Mark点则是自己发光,每一个灯珠的闪烁频率都有独特编码,就像给每个Mark点发了“身份证”,相机通过识别闪烁编码,就能区分两者差异,哪怕在玻璃桌面、金属零件旁工作,也不会出现数据丢包。

“以前做手指动捕,需要架20多台相机才能避免遮挡,现在2-3台就够了。”张海威举例,这套方案不仅降低了设备成本,相机数量减少80%,还简化了部署,让工厂车间、家庭厨房都能快速搭建动捕环境,甚至能跟着工人在产线上移动采集数据,这为人形机器人落地真实场景的“伴随式数据采集”奠定了基础。

▍破解人形机器人的“数据饥渴症”

“现在整个行业都卡在数据上,没数据,机器人就没法好好干活。”张海威直言,人形机器人对数据的需求,远超ChatGPT、自动驾驶。

因为ChatGPT只需要文字数据,自动驾驶是“二维空间无交互”,而人形机器人是“三维空间强交互”,需要动作、触觉、环境、物体属性等多维度数据,数据量或许是自动驾驶的1000倍以上。

针对这一痛点,青瞳视觉正在推进“高质量人形机器人数据集”建设,并提出了“多维质量标准”,旨在解决行业“数据少、质量低、不通用”的问题。

高质量数据的第一标准,是“多模态”,因为人形机器人不能只有动作数据,还要有触觉、环境、物体数据。例如一个简单的“拧螺丝”动作,除了手指关节的运动轨迹,还要采集指尖的压力变化(触觉)、螺丝的材质硬度(物体属性)、工作台的高度(环境数据)。“机器人拧螺丝时,力度大了会拧花螺丝,力度小了会拧不紧,这些都需要触觉数据支撑。”张海威解释。

同时,这些数据还需要实现更关键的“时空对齐”,也就是动作、触觉、环境数据必须在时间和空间上完全同步。比如手指发力的瞬间,对应的压力数据、螺丝的位置数据必须是同一时间点的,否则训练出的机器人会“动作与力度不匹配”。而青瞳的动捕设备已经能够实现“微秒级时空同步”,确保所有数据的“时间戳”一致,这为后续训练提供精准支撑。

高质量数据的第二标准是“三高”:高精度、高灵敏度、高自由度。

高精度不用多说,动作误差要控制在0.1毫米以内;高灵敏度则针对触觉数据,比如手指接触物体时,0.1克的力度变化都要能捕捉到;高自由度则是为人形机器人的“通用性”服务,数据要覆盖手指、手臂、躯干的全关节运动,哪怕是用镊子夹起一根头发”“用钥匙开门这样的复杂动作,也要能完整记录。

“如果数据集的自由度低,那训练出的机器人只能做简单动作,没法用工具、没法适应不同场景。”张海威强调,只有真正的高质量数据,才能确保数据能支撑机器人的“通用操作”,覆盖更多场景,更容易迁移、复用到不同机器人本体。

第三则是数据要“真”。因为传统数据采集需要搭建模拟场景,比如在实验室里建一条模拟产线,成本高、不真实。青瞳的创新是“伴随式采集”,这些“真实场景数据”,比实验室模拟数据更有价值。“我们不可能在实验室里建1000条不同的产线,但我们可以去1000家工厂采集数据。”张海威举例,伴随式采集不仅能降低成本,还能捕捉到“人类的隐性技巧经验”这些经验是实验室模拟不出来的,但对机器人落地优化至关重要。

第四则是后处理简单,让数据能用、易用。由于青瞳视觉也在影视动画行业有着深耕,其发现大多影视采集的动捕数据,需要10天时间“清理”1天采集的数据,但机器人行业没人懂“数据清理”,也没成本做这件事。青瞳的数据集则做到了“后处理简单”,其采集的数据噪声低于1%,不用精修就能直接用于训练。这就使得人形机器人需要的是实时可用的数据,不是精修美化的数据。这也成为当下青瞳数据采集受到宇树、智元等头部企业信赖的核心优势之一。

▍结语:动捕,不止是“记录动作”

当机器人积累了足够多的专家动作数据后,还能反向“教人”。

在交谈中,张海威描述了一种人形机器人与动捕设备融合的未来,比如羽毛球教练机器人,能通过动捕对比学员的动作与专业运动员的差异,实时纠正姿势;工厂里的技工机器人,能示范“高精度拧螺丝”的动作,帮助新工人快速上手。

“机器人能汇集100个专家的经验,比人类教练更精准。”张海威说,这也是具身智能的延伸价值,让机器人基于动捕设备,从“工具”变成“老师”。

在青瞳的规划中,人形机器人的落地或许会分三步走:第一步是工厂场景,通过动捕训练机器人完成拧螺丝、组装零件等标准化动作;第二步是康养场景,训练机器人辅助老人穿衣、递药,重点解决柔性交互问题;第三步是家庭场景,让机器人学会做饭、打扫、照顾孩子,这需要更多家庭环境的伴随式数据支撑,动捕技术的“训练+评测”能力不可或缺。

如今,从宇树H2的舞蹈优化到智元灵巧手的精准抓取,从IROS展会的光惯混合设备到浙江质科院的评测线,青瞳视觉正在用技术证明:动捕不是影视动画行业的“专属工具”,同样也能成为人形机器人产业的“基础设施”,它解决了机器人“学动作”的难题,建立了机器人“考资格”的标准,还破解了行业“缺数据”的痛点。

当更多机器人通过动捕技术掌握精准动作,当更多企业用上高质量数据集,当动捕成为机器人的感官能力,人形机器人从实验室走向家庭、工厂的那一天,或许比想象中更近。