近日 AiMOGA墨甲机器人墨茵(Mornine)在真实4S店环境中成功完成"自主开车门"操作,成为业内首个实现此项复杂物理交互任务的具身智能机器人。这一突破不仅标志着具身智能从实验室走向真实世界,更为服务型人形机器人的商业化部署奠定了关键技术基础。
在机器人行业中,看似简单的"开车门"动作,实则对机器人感知、规划与控制能力提出了极高要求。墨甲团队在不断的工程试错与算法迭代中,攻克了感知融合、全身控制、上下肢协同等多个技术难点,最终让墨茵具备了在非结构化场景中,自主识别车门、调整站位、协调动作、拉开车门的能力。
墨茵自主打开车门
打破"预设指令"边界,实现端到端闭环控制
传统机器人执行任务常需依赖分步骤指令或远程操控,而墨茵采用端到端闭环控制架构,实现了隐空间层面的"感知-规划-执行"的流畅融合。以3D激光雷达、 相机、广角相机等多模态传感器为基础,辅以视觉基础模型(Visual Foundation Model),构建起完整的环境与自身状态感知模型,并借助Chery大模型进行语义理解与任务生成。
当面对不同车型门把手或突发阻力时,墨茵能实时调整路径、姿态和发力方式。这种仿佛"本能反应(System 1)"的执行机制,使机器人真正具备了面对动态环境的即刻决策与动作调控能力。
强化学习赋能,自主识别"门把手"目标
此次"开车门"能力并非靠人工示教,而是通过数百万次虚拟训练迭代完成。在训练中,机器人仅接收到"成功抓住门把手"这一奖励信号,却在反复试验过程中自主聚焦了门把手区域。
"我们其实从未明确告诉机器人‘门把手'是什么,但它最终靠自己学会了抓住目标。"研发人员表示。这种能力,正是端到端强化学习在真实世界中的落地体现。
注意力热力图
强化学习训练后模型自发聚焦门把手区域
上下肢协同,打造"拟人式"动作链条
为应对车门阻力与抓握稳定性挑战,墨茵采用"flow-based motion(流动式动作机制)"。在开门过程中,机器人不仅由手臂发力,更通过腿部与腰部姿态调整形成全身配合,模拟出类似"太极推手"的发力结构。
项目初期团队尝试过仅靠上肢发力拉门,但机器人经常被车门"拽走"。最终通过强化手部结构、增加脚底防滑、设定合理姿态与站位精度要求,并同步优化控制模型、增强动作执行过程中的数据反馈机制和策略更新能力,逐步实现稳定开门动作。"从失败无数次,到第一次拉开车门,那一刻我们知道这事成了。"研发团队成员回忆道。
Sim2Real迁移,构建从虚拟到现实的落地闭环
训练完成后的模型通过Sim2Real技术平滑迁移至实体机器人,使虚拟世界中形成的策略能够真实应用。部署过程中,机器人还能收集环境反馈数据,回流训练系统用于模型增强,形成数据闭环。
这一"预训练-现实强化-端到端控制"的完整路径,被广泛认为是当前机器人行业中最具通用性与可扩展性的技术范式。
机器人墨茵使用VLM模型和广角摄像头实时判断车门打开状态
落地4S店,服务真实用户场景
目前,墨茵已在奇瑞多家4S店试点部署,承担智能接待、产品讲解、递送物品等工作。"开车门"不仅是技术突破,更是其作为"智能销售助理"角色的核心能力。
未来,墨甲将继续在 场景中深耕数据积累,优化模型泛化能力。面对不同门把手、环境光照、开关阻力等变量,机器人将不断进化,实现分钟级生成新动作策略,极大降低新任务研发周期。
"我们今天在4S店打开的是一扇车门,未来希望能让机器人走进千家万户,打开更多场景的‘服务之门'。"从构想到现实,从实验室到真实商业空间,墨甲墨茵以"开车门"为标志,完成了具身智能机器人商业化的重要跳跃。行业首例的全自主物理交互,不仅展现了墨甲在多模态感知、上下肢协同、端到端控制等方面的深厚积累,更为"人形机器人+ "的融合应用开启了新范式。