具身智能新突破:VLA技术驱动“所见即所动” 地瓜机器人算法副总裁隋伟博士将分享《具身智能中的VLA技术及其应用》。传统方法将视觉、语言与动作模块分离,导致系统复杂、误差累积与泛化弱;而视觉语言动作模型(VLA)实现了多模态感知到动作生成的端到端学习,构建了“所见即所动”的闭环决策,显著推动具身智能发展。 然而VLA仍面临训练数据稀缺、长时序与物理逻辑推理能力不足等挑战,限制了其在多场景、多任务中的泛化与应用。 本次演讲将解析VLA的基本原理与关键技术,并探讨数据构建、评测体系等落地问题,以提升其性能与易用性。目前,海外如Google、Meta及DeepMind等公司已在家庭服务、工业自动化等场景推进VLA应用;国内如华为、优必选、地瓜机器人等企业也积极布局,在服务机器人、智能制造等领域逐步实现技术落地。
具身智能新突破:VLA技术驱动“所见即所动” 地瓜机器人算法副总裁隋伟博士将分享
大提莫聊热点
2025-09-04 11:44:22
0
阅读:0