高德发布全球首款开放环境全自主机器狗 ABot体系引领具身智能新突破

   发布时间:2026-04-19 11:07 作者:柳晴雪

在2026北京亦庄机器人半程马拉松赛事中,一款名为“高德途途”的四足机器人惊艳亮相,成功协助视障人士完成复杂避障、人群穿行等实战挑战。这款机器人由阿里巴巴旗下高德公司研发,是全球首款开放环境全自主具身机器人,标志着具身智能技术在现实场景应用中迈出关键一步。

支撑“高德途途”完成导盲等严苛任务的核心,是高德全新发布的ABot全栈具身技术体系。该体系基于上万种真实场景与千万级多模态数据训练,将高德长期积累的空间智能资产转化为具身核心训练资源,构建了全球首个面向通用人工智能(AGI)的全栈技术框架。与传统具身智能技术“单点拼凑、封闭验证”的碎片化模式不同,ABot体系以AGI为核心目标,首次将数据引擎、基座模型与执行中枢整合为统一系统,形成“数据驱动模型、模型服务应用、应用反哺数据”的闭环飞轮架构。

在数据层,ABot-World通过批量合成视频、深度图、点云和轨迹四类训练数据,配合强化学习训练引擎在虚拟环境中模拟试错,以高保真仿真替代高昂的真机采集。这一创新将数据成本压缩数个数量级,同时解决物理合规性、动作可控性和零样本泛化三大技术难题。其专为具身智能设计的14B DiT架构,能够直接生成符合时空动力学的未来状态序列,并通过千万级真实数据与多层级采样治理,突破单一任务泛化限制。在主流评测中,ABot-World成为唯一在物理合规性、动作可控性、零样本泛化三大维度均达SOTA的模型。

模型层由“运动双核”ABot-N与ABot-M构成。ABot-N作为全球首个实现五大核心导航任务统一的视觉语言动作(VLA)基座模型,采用层级式“大脑-动作”架构,通过多模块协同实现单一模型导航任务全覆盖。该模型在VLN-CE、HM3D-OVON等7大权威基准测试中全面刷新纪录,在导航精度、社会合规性和零样本泛化能力上实现断层式领先。ABot-M则是全球首个统一架构的具身操作基座模型,通过动作流形学习将学习目标转为流形投影,显著提升动作生成稳定性,其语义流与动作流双流并行架构更将精细操作执行精度提升至新高度。在LIBERO、RoboCasa GR1等主流评测中,ABot-M在泛化能力、鲁棒性与跨形态迁移三个维度系统性超越强基线模型。

应用层的核心是具身版“龙虾”ABot-Claw,该架构首创“Map as Memory”理念,将高德地图与用户私有地图作为全局认知锚点,把多模态感知数据统一映射至共享语义空间,形成可动态刷新的“世界记忆”。这种设计使新终端接入后能零成本继承环境认知,彻底打破场景孤岛。其“云端大脑—边缘响应”两级架构支持多种异构机器人并行协作,故障时自动接续任务上下文,实现跨形态协作与体系化智能进化。在模糊指令理解、跨机导引等复杂场景中,ABot-Claw的闭环反馈与纠错机制验证了其鲁棒性与泛化性。

高德同步宣布将开源ABot全体系,此举不仅践行了“AMAP AI Inside”的核心理念,更为具身智能领域提供了可复用的技术框架。通过开放数据引擎、基座模型与执行中枢的完整架构,高德将推动行业从“单体技术突破”向“体系化协同创新”转型,为AGI时代的到来按下加速键。

 
 
更多>同类内容
全站最新
热门内容
本栏最新