在今日举行的深圳全球具身智能开发者大会上,多家独角兽企业展示了具身智能领域的最新突破。实验数据显示,通过引入超大规模的VLA(视觉-语言-动作)基础模型,机器人学习新任务的效率得到了几何倍数的提升。
现场演示中,一台从未接触过“折叠衣物”任务的通用机器人,在观看了一小时的人类教学视频后,成功实现了对不同材质衣物的识别与折叠,重复1800次实验的成功率高达99.5%。这标志着具身智能正式从“特定场景定制”进入了“通用能力泛化”的新阶段。
专家认为,具身智能正在重走大语言模型的老路,即通过堆砌海量的机器人动作轨迹数据(Trajectories)来实现能力的突变。随着传感器成本的降低和端侧大模型算力的提升,2026年将被视为具身智能进入家庭与工厂的元年。

