小米发布开源了一个 VLA 模型 Xiaomi-Robotics-0 的机器人AI模型,47亿参数,代码全公开,谁都可以拿去用。这个模型的亮点是:让机器人既听得懂人话,又干得了细活,动作还不卡顿 。小米开源机器人vla大模型人工智能
打个比方:它等于给机器人装了个“大脑+小脑”组合包1️⃣ 大脑(VLM)——负责“听懂人话”你说“帮我把毛巾叠好”,它不光听懂“叠毛巾”,还知道毛巾是软的、该怎么捏、叠几层。之前的机器人经常听不懂模糊指令,这个能听懂 。
2️⃣ 小脑(Action Expert)——负责“手脚利索”很多机器人反应慢,是因为“脑子想完了再告诉手”,中间有延迟,动作一顿一顿的。小米这个模型用了异步推理——脑子边想手边动,不卡壳。还加了个“防抖机制”(Clean Action Prefix),让动作像人一样平滑,不会抽风式乱抖 。
3️⃣ 最关键:学了动手,没变傻以前很多VLA模型有个毛病:学完怎么干活,就把“理解能力”丢了——你看它叠毛巾挺溜,问它“这是什么颜色”它傻眼了。小米这个模型理解能力没丢,既能干活,也能回答“桌上那积木是红色还是蓝色”这种问题
图片均由AI生成


