宇树最新机器人发布:1米8大高个,能跳舞会功夫,就是气质独特
发布时间:2025-10-22 01:18:45 浏览量:1
宇树把新款人形机器人H2的视频放出来了。画面里它先是跳舞、再打拳、最后走秀,短短几分钟,大家的反应分成两拨:有人夸动作更流畅、鲁棒性提升明显;有人盯着那张仿生脸看得不舒服,觉得有点怪。简单说,展示达到了技术演示的目的,但外观讨论几乎盖过了动作本身。
看完视频,先把整体脉络捋一捋:三段表演——舞蹈、功夫、走秀,最后一个维特鲁威人的画面作结。公司把人体比例当作设计目标,这个视觉符号放在尾巴上,像是在说“我们的方向就是这个”。把技术动作和美学意图连在一起,观众自然会同时拿两方面去比较——能做什么和看起来像什么。
从远处看,走秀那段最能拉回普通观众的关注。H2穿了衣服、戴了帽子,正面那张脸还是很抓眼,但从侧面和背面去看,它的步态协调性挺像人的。穿衣服这一招让不少评论的语气缓和了,大家说“戴帽子没那么恐怖”。走路时肩胛带动、腿部配合、重心转换都比较顺眼,没看到明显抖动。换句话说,外形上多点服饰遮掩,确实能把“太像人又怪异”的感觉压一压,做法像是戴个口罩给个缓冲,能让不适感降一档。
再说那段功夫。片尾还特别写着“部分极限测试,请勿模仿”,看着就知道不是耍酷,是在测系统极限。H2的拳脚落点、旋转幅度、重心控制,比以前同体型机明显成熟。以前他们用身高约130厘米的G1机型做硬核动作,那个尺寸做翻转、落地省力、稳;H1有180厘米但基本不表演这种硬核动作,反而被戏称“太奶机器人”。这次H2把身高定在180厘米却能完成类似G1的动作,说明控制器、力矩分配和运动规划那块确有进步,算法和力控更耐造了。
舞蹈放在最前面,给人的第一印象往往定了基调。H2这趟自由度上来了——全身31个自由度,比H1的19个多了不少。视频里有旋转加手臂伸缩的组合,连贯性比以前强,姿态也更复杂。但是很多人看完的直觉是“动得像技术演习,情绪不到位”。有人说像喝了点多的朋友胡乱晃,有人说像僵尸在跳舞。这里的问题不是能不能做动作,而是情绪感染力不够——机器人可以把动作做对,却还没法把“情绪”做进动作里。公司两个月前那张海报写着“敏捷”“优雅”,剪影像芭蕾,但实演和那张海报的视觉预期之间确实存在落差,这就让部分观众觉得被宣传“骗”了一点。
关于外形和数据,视频里也给了关键信息:身高180厘米,体重70公斤,比同高的H1重了23公斤;体型设计是宽肩窄腰,电池和控制板被塞在胸腔那块。重量上去的好处是能装更大电池和更复杂的控制器,续航和算力能提高,但问题是结构更吃力,布线、散热、关节力矩都得重新平衡。最引人注目的改动是仿生人脸——这是这次改动里最显眼的点。真脸式的面孔一出现,讨论就来了,技术被美学抢走了话题。
脸的问题短时间里热度最高。有人拿电影里的NS-5来比喻,有人说眼睛像戴了美瞳那样不自然。社交平台上两边声音都有:支持者认为更像人能拉近距离,不支持的担心“恐怖谷”。还有提出具体改进的意见,比如缩小瞳孔、调整面部表情范围,让面部设计更“有度”。更务实的评论直接问“什么时候能洗衣服、做家务?”——换句话说,很多人关心的是落地的实用性,不是长相争议。
公司目前在官网上只写了那句宣言式的短文:仿生人形机器人,为每个人安全友好地服务而生。但没有把电池容量、传感器型号、续航里程之类的技术指标摆出来,导致公众讨论从“它能做什么”跑偏到“它长啥样”。两个月前预告海报只给了身高、自由度和“九头身纤长体形”“敏捷”“优雅”这些词,真正的技术细节是靠这次视频硬塞进来一点一滴,但还不够。这种宣传节奏从预告到实演的安排是典型的市场操作:先用美学吸引眼球,再用动作来证明技术,但细节没公布就容易被网友拿放大镜审视。
从技术角度看,H2在动作稳定性上确实有两点值得看:一是在更高身高和更大重量条件下还能完成复杂动作,说明动力分配和关节控制有改进;二是自由度增加带来了更丰富的姿态,但情绪表达和微表情捕捉还没到人类那档次。把这两点连起来说,就是“能做复杂动作,但还不能把动作演成有情绪的表演者”。这也是为什么很多专业观众会把注意力放在算法、伺服系统和传感器融合上,而普通观众更关心“能干家务不”。
公众的期待大致分两类:想把机器人当成更像人的工具,和想把机器人当成真正能干活的帮手。两者有交集,但也有矛盾——做得越像人,越容易触碰到“奇怪感”;做得越偏工具,实用性可能更高但亲和力会降低。宇树这次用维特鲁威人的意象去强调“人体美学”,显然是在往“像人”那边靠。观众读出两层意思:公司想把功能性和美感绑在一起,但大众分裂成喜欢和不舒服这两端。
评论区最频繁的关键词是“技术进步”“外观争议”和“何时能做家务”。那句简短的宣传语吸引眼球起到了效果,但也把关注点拉偏,观众自然会把注意力从“能做什么”扩散到“看起来如何”。展示的顺序从舞蹈到功夫到走秀,是先秀动作再秀形态,最后用维特鲁威人收尾,形成一个视觉上的闭环。但大家在看的时候不是只看闭环,而是想把这个机器人放到现实场景里想象:端茶倒水、拎菜上楼、照顾老人、小件修理,这些实用场景才是大多普通用户的关心点。
现在的状况是,视频一投放,讨论继续,期待参数表和应用场景的人越来越多。有人盯着外观建议改动,有人盯着动作背后的算法和硬件想知道细节,还有人拿尺子算着重量、电池放哪儿的合理性。留给公司的时间不多了,想把话题从“长得像不像人”拉回“能不能真正干活”,就得把技术指标、实测数据和更真实的场景演示放出来。否则,这类视频就只能做成一次又一次的视觉秀,争议和点赞并存,但离落地还有段距离。