
两台 Figure AI 人形机器人大秀新技能:不到两分钟铺好一张床
一句话看懂:Figure AI 于 5 月 8 日发布最新演示视频,两台人形机器人在完全自主、无远程遥控的情况下,通过视觉识别和纯视觉协作,在不到两分钟内协同完成铺床等家务任务。这件事的看点在于,机器人不再依赖“传纸条”式的显式信息交换,而是靠理解对方的动作来自然配合,这意味着多机协同的底层逻辑正在从“程式化协作”转向“类人类配合”,对后续家庭服务机器人的商业化具有技术验证意义。
事件核心:发生了什么
当地时间 5 月 8 日,Figure AI 公布了一段实拍视频。在视频中,两台人形机器人进入一间极简风格卧室,分别执行不同任务:一台挂起外套,另一台合上笔记本电脑并挂好耳机。随后,两台机器人分别走到床的两侧,通过调整枕头、抬被子、拉平褶皱等动作,不到两分钟就将床铺整理完成。值得注意的是,整个过程中机器人通过点头等身体语言相互配合,没有使用任何显式消息传递协议。Figure AI 的 AI 主管科里·林奇在社交平台 X 上明确指出,机器人“完全通过视觉协调动作,视频为正常速度播放,没有远程遥控”。该演示基于 Figure AI 在今年早些时候推出的 Helix 02 模型训练而来,该模型专门针对开门、推家具、悬挂衣物等复杂任务进行优化,铺床是其中的上限场景之一。
为什么重要
这项演示的核心突破不在于动作的复杂度,而在于“协同”的实现方式。过去多机器人协作通常依赖预设的通信协议或共享网络同步,每台机器人明确知道自己该做什么、对方做什么。但 Figure AI 展示的是另一种模式:机器人通过视觉观察和理解对方的动作意图来调整自身行为,本质上更接近人类分工时的默契。这意味着机器人从“按指令执行”向“自主观察与适应”迈出了关键一步。此外,铺床任务的难度来自被子的无固定形状、边界模糊以及两台机器人需预判彼此动作并随被子形态变化实时调整,这对机器人模型的泛化能力和实时推理能力提出了高要求。Figure AI 目前估值 390 亿美元(约合 2658.11 亿元人民币),融资超过 10 亿美元,其创始人阿德科克曾公开表达“打造一个新物种”的愿景,即让机器人能够繁殖和相互分享知识。此次演示的技术路径,为这类愿景提供了可观测的实证基础。
对用户/开发者/创作者的影响
对于普通用户,这项技术目前仍处于实验室验证阶段,Figure AI 未公布消费者上市时间表,短期内在家庭场景中“买一台机器人铺床”还不现实。但对机器人开发者而言,Helix 02 模型的训练方法和纯视觉协同策略值得关注:它验证了在非结构化场景(如家庭)中,机器人可以仅靠视觉输入完成精细协作,这降低了对传感器和通信模块的依赖成本,未来可能成为人形机器人协同控制的技术范本。对于 AI 内容创作者和行业分析师,这一演示提醒人们关注“具身智能”赛道中的协同能力这个此前较少被量化的维度——机器人能否与同类(甚至与人类)在动态环境中自然协作,将是衡量其通用化程度的重要指标。
值得关注的后续
目前公开信息显示,Figure AI 尚未给出明确的时间表,但有几个观察点值得持续跟踪:第一,Helix 02 模型能否在更多家庭场景(如厨房、客厅)中复制类似的视觉协作能力,尤其是涉及液体、柔软物体或小型物品的任务;第二,多机器人协同的失败率如何——演示视频通常展示最优情况,真实环境下的容错边界需要更多数据;第三,Figure AI 是否会开放 Helix 模型的部分开发接口给第三方实验室或开发者,这将决定其技术能否在更广泛的机器人生态中被复用。同时,需关注竞争对手如 Tesla Optimus、Boston Dynamics 以及国内宇树科技、智元机器人等在同类任务中的最新进展。


