京东发力具身智能:搭建数据基建,发动60万人采集数据筑超级供应链

   发布时间:2026-04-18 06:02 作者:郑浩

在具身智能领域持续发力的京东,于近日举办了一场备受瞩目的生态发布会,正式推出具身智能数据基础设施全景图,涵盖“采、存、标、训、评、仿、测”全流程,同时亮相了自研超高清采集终端JoyEgoCam、具身大模型JoyAI-RA以及具身智能数据交易平台等创新成果。

当前,具身智能正加速向应用场景渗透,但高质量、强可用性且源于真实场景交互的数据匮乏,成为制约其发展的关键因素。硬件标准不统一、数据采集流程分散,导致采集到的数据难以直接用于模型训练。数据、硬件、算力和模型之间的协同问题,使得具身智能的实际应用效果受限,甚至被调侃“只能看机器人翻跟头、转手绢”。

京东凭借其在供应链领域的深厚积累,试图通过搭建和使用相关基础设施,打通从数据采集到模型测试的全流程闭环。京东希望将原始杂乱的数据转化为驱动模型进化的高价值“数据燃料”,推动具身智能在零售、物流、工业、健康等场景实现规模化商业落地,构建属于自己的“具身智能超级供应链”。

为实现这一目标,京东计划发动大规模数据采集行动。未来两年内,将动员最多60万人参与,积累1000万小时人类真实场景视频数据。参与人员包括超过10万京东员工和50万外部协作人员,涵盖京东线下零售业态的店员、京东物流的快递员、京东家政的保洁人员等。据了解,除提供采集设备外,京东现阶段还会为这些采集人员提供一定报酬。

京东集团副总裁、京东云基础云业务总经理龚义成在发布会上指出,当前数据采集面临诸多难点。首要问题是如何找到对具身模型有用、可定义且可规模化的数据,采集的数据维度至关重要。其次是大规模数据处理,这涉及较强的技术性和成本控制。还需考虑模型数据的飞轮效应,确保数据对模型有效。

此次发布的可穿戴式超高清采集终端JoyEgoCam成为一大亮点。该设备配备4K高清摄像头,支持60帧帧率和130度超广角拍摄,可毫秒级捕捉动作细节,重投影误差小于0.2像素。整机重220克,内置车规级6轴IMU与多传感器融合单元,实现“即戴即采”,让普通人也能完成专业级数据采集。未来,京东还将拓展手部、肢体乃至整个动态轨迹的数据采集。

采集后的数据进入上传和加工阶段。数据汇入AI数据湖平台后,凭借PB级吞吐能力自动完成清洗、对齐、转换与预标注,转化为标准训练集。JoyBuilder仿真平台可批量生成高逼真仿真数据,实现人类操作数据、仿真操作数据和真机操作数据的高效增值转换与泛化扩增。治理后的数据汇聚至JoyBuilder模型开发平台,自研AI算子矩阵贯穿数据去畸变、语义描述、深度重建等环节。目前,京东日处理数据量达数十万条,数据有效率达95%,整体处理成本降低60%。

模型与数据相互促进,模型反哺数据标注与采集,数据质量越高,模型迭代效率与精度越高。以自采数据为核心训练的京东具身大模型JoyAI-RA,在真机实验上成功率达到73.5%。

同步上线的京东具身智能数据交易平台,汇聚了京东业务场景下的多模态数据资源,支持数据方、开发者、应用方多方协同。平台首批定向开放2000小时高精标注数据集,技术社区也即将上线,为具身智能领域的发展提供更多支持与便利。

 
 
更多>同类内容
全站最新
热门内容
本栏最新