- 投影器(MLP):相当于“神经中枢”——视觉编码器提取的信息是“视觉语言”,大语言模型懂的是“文字/指令语言”,投影器的作用就是把这两种语言翻译成同一种“AI能懂的通用语言”,让信息能顺畅传递;
- 大语言模型(LLM):相当于“大脑”——负责理解你的指令、整合所有信息、做决策。比如收到“拿红色杯子”的指令,结合视觉信息“杯子在茶几上”,就会生成“移动→抓取→放置”的动作指令;收到“避开拥堵”的指令,结合路况信息“前方施工”,就会生成新的行驶路线。
这三个部件配合起来,就像一个完整的人:眼睛看、神经传、大脑想,然后做出反应。
2. 训练数据:“多学科课本”,啥知识都学
要让AI变聪明,得给它喂足够多、足够全的“课本”——也就是训练数据。MiMo-Embodied的“课本”分三大类,覆盖了所有关键场景:
- 通用多模态数据:相当于“基础课课本”——包含图片、视频、长文本等,比如新闻、科普文章、日常照片,让AI具备基本的理解能力,就像咱们小学学的语文、数学,是所有能力的基础;
- 具身智能数据:相当于“机器人专项课本”——包含机器人怎么抓取物体、怎么规划家务步骤、怎么理解室内空间的知识,比如“怎么拿起易碎品”“怎么在狭窄空间移动”,让AI懂机器人的任务逻辑;
- 自动驾驶数据:相当于“汽车专项课本”——包含交通规则、路况识别、驾驶规划的知识,比如“红灯停绿灯行”“怎么预判车辆变道”“雨天怎么安全行驶”,让AI懂驾驶的核心逻辑。
这就像一个学生,不仅学基础课,还学“机器人操作”和“汽车驾驶”两门专业课,知识储备自然全面。
3. 四阶段训练:从“基础班”到“尖子班”,循序渐进
有了好的“课本”,还得有科学的“学习计划”。MiMo-Embodied的训练分四步,一步一个台阶,最后成为“全能尖子生”:
- 阶段1:具身智能基础训练——先学“机器人相关知识”,结合通用数据,打好视觉理解、任务推理的基础,就像先上“机器人基础班”,学会怎么看懂指令、怎么规划简单动作;
- 阶段2:自动驾驶专项训练——在基础之上,再学“驾驶相关知识”,重点练复杂路况分析、动态预测能力,就像上“驾驶专项班”,学会怎么应对道路上的各种情况;
- 阶段3:思维链推理训练——学“多步推理”,比如“看到红灯→要停车→还要提醒后方车辆→避免追尾”,就像上“逻辑思维班”,让AI不仅能做简单任务,还能处理复杂、多步骤的问题;
- 阶段4:强化学习训练——相当于“模拟考试+错题复盘”,用专门的算法给AI的表现打分,做得对就奖励、做得错就纠正,不断优化精度和可靠性,直到在所有测试中都拿到高分。
这章没有结束,请点击下一页继续阅读!
正是因为有了“全场景数据”和“循序渐进的训练”,MiMo-Embodied才能同时精通两种完全不同的任务,还能让它们互相赋能。
4. 开源:让全世界都来“帮它进步”
小米还做了一件特别关键的事:把MiMo-Embodied开源了。啥意思呢?就像一个顶级厨师,不仅做出了一道好菜,还把菜谱、食材清单全公之于众,全世界的厨师都能照着做,还能根据自己的口味修改,然后把更好的做法分享回来。
开发者可以通过GitHub、Hugging Face这些平台,免费获取模型和代码,不用从零开始研发,直接在这个基础上做修改,适配自己的场景——比如有人想做“快递配送机器人”,有人想做“智能农业设备”,都能直接用MiMo-Embodied的核心能力,节省大量时间和成本。
而这些开发者的修改和优化,又能反过来丰富模型的能力,让MiMo-Embodied越来越强,形成一个“开源共享、共同进步”的生态。这也是小米“人车家全生态”战略的关键一步——让这个AI大脑成为所有智能设备的“通用基座”。
五、对咱们普通人有啥影响?3个改变,不远的将来就能感受到
MiMo-Embodied不是实验室里的“黑科技”,而是会实实在在走进咱们生活的产品,未来1-3年,你可能会感受到这三个明显的改变:
1. 智能设备更“懂你”,不用再“手把手教”
以前的智能设备,大多需要你说精准指令才能响应——比如你得说“打开客厅空调,调到25℃”,它才会动;如果说“有点热”,它可能没反应。
而搭载MiMo-Embodied的设备,会变得更“贴心”:你说“有点热”,空调会自动调到舒适温度;你说“想喝温水”,机器人会直接端过来;你开车时说“有点饿”,汽车会自动推荐附近的餐厅,还能帮你预约车位。这些设备会结合你的状态、环境情况,主动满足你的需求,不用再“手把手教”。
2. “人车家”联动更丝滑,生活更省心
小米的核心战略是“人车家全生态”,而MiMo-Embodied就是这个生态的“大脑中枢”。未来你可能会体验到:
- 早上出门:家里的机器人帮你做好早餐,你吃完出门,机器人自动把垃圾带下楼,放进汽车后备箱;汽车提前启动,调好你