上海蚂蚁灵波科技有限公司与乐聚智能(深圳)股份有限公司近日达成战略合作,双方将聚焦具身智能机器人领域,通过技术互补与场景协同,共同探索工业与商业场景的智能化解决方案。此次合作标志着两家企业在具身智能赛道上迈出关键一步,旨在推动机器人从单一功能向通用智能演进。
合作基础源于双方此前在数据层面的深度协作。作为蚂蚁灵波的核心数据伙伴,乐聚机器人已为其LingBot-VLA具身大模型提供近万小时的高质量多模态真机数据,覆盖工业搬运、商业服务等场景。这些数据帮助模型突破了"硬件场景-数据-算法"的闭环瓶颈,实现了跨机器人本体、跨任务类型的泛化能力,为"一脑多机"的工程化落地奠定基础。乐聚机器人CEO常琳表示,真实场景数据是训练具身智能模型的核心要素,双方通过数据共享机制,已验证了技术路径的可行性。
根据新签署的协议,双方将构建更具行业代表性的具身智能真机数据集。蚂蚁灵波将发挥其在多模态大模型架构、跨模态感知理解等方面的技术优势,乐聚机器人则提供机器人本体设计、复杂场景部署及长期运营经验。通过联合训练与优化迭代,双方计划提升机器人在动态环境中的"感知-决策-执行-学习"全链路能力,使其能更自主地适应工业产线、商超服务等场景的多样化需求。
在签约仪式上,蚂蚁灵波科技CEO朱兴透露,双方已成立专项技术团队,针对工业场景中的精密装配、商业场景中的智能导购等典型任务开发解决方案。例如,在汽车制造领域,机器人需同时处理视觉定位、力控操作、异常处理等多维度任务,这对模型的泛化能力和本体的适应性提出极高要求。通过此次合作,双方计划在年内推出可复用的行业模板,降低具身智能技术的落地门槛。
当前,具身智能产业正面临从技术验证到场景落地的转折点。行业普遍认为,仅有强大的模型或先进的本体均不足以实现通用智能,必须通过真实场景的持续反馈优化技术闭环。此次合作通过整合数据、算法、本体三要素,为破解"模型-硬件-场景"的融合难题提供了新思路。据内部人士透露,双方已与多家制造业企业接触,计划将首批合作成果应用于3C产品组装、仓储物流等高精度、高柔性场景。




