近日,联发科在上海举办了以“全域芯智能,体验新无界”为主题的天玑开发者大会,吸引了众多行业目光。会上,联发科正式推出天玑 AI 智能体化引擎 2.0,同时升级了天玑 AI 开发套件至 3.0 版本,还公布了与 OPPO、小米、传音等厂商在系统原生 Claw 方面的合作成果。
作为受邀媒体,在大会结束后参与了联发科高管的群访活动。在采访中,针对当前行业热议的跨端智能体协同、AI 定义汽车等核心问题,联发科高管与媒体进行了深入交流。有媒体提问,当下行业处于 AI 智能体大规模落地的关键节点,跨设备全域协同是发展趋势,联发科如何借助移动平台、座舱平台等多产品线协同,打通手机、汽车、边缘计算设备的智能体能力,以及怎样解决跨端流转中存在的延迟高、算力调度不均、生态不通等痛点。
联发科高管回应称,公司从三个层面系统性推进跨域协同布局。在 IP 设计源头,充分考虑不同产品线的复用性,统一 NPU 架构的软硬件标准,确保同一 IP 能适配从手机到汽车不同功耗和算力的需求,降低技术迁移成本。在软件层,打造统一的 NeuroPilot 开发平台,基于天玑品牌开发的应用,在手机端调试完成后可快速移植到汽车、平板等其他终端,实现“一次开发,多端部署”。对于生态层这一最复杂的问题,高管表示不同终端生态体系差异是当前最大挑战,需要行业共同努力。大模型的泛用性为解决这一问题提供了新思路,统一的自然语言指令集正在打破不同系统间的交互壁垒,像近期火热的“龙虾”框架,其核心价值之一就是实现跨系统指令互通。联发科正通过开发者大会推动生态伙伴共建统一标准,未来支付、导航、社交等基础服务将无缝接入天玑全产品线。
针对不同终端特性,联发科设计了差异化协同模式。例如 AI 眼镜主要承担感知功能,复杂运算交由手机完成;汽车与手机则更多是资讯和习惯的流转,用户上车后,手机会自动将行程、音乐偏好等数据同步给车机,车机基于这些信息提供个性化服务。
在采访中,其他媒体还围绕 AI、车载平台以及移动游戏领域提出诸多问题。有媒体关注到联发科座舱平台,目前行业从“软件定义汽车”演进到“AI 定义汽车”,汽车作为传统工业产品,在快速迭代中面临质量与安全的双重挑战,AI 能否提升安全性,以及联发科从移动终端切入汽车市场,相较于其他芯片厂商的核心优势和需重新打造的能力。
联发科高管表示,要区分车内不同模块的安全属性,智驾和车辆控制模块与行车安全强相关,必须经过完整严格验证流程,开发周期不会因 AI 引入大幅缩短;而座舱智能体应用与安全关联度较低,更多是为用户提供行程规划、信息查询、娱乐服务等功能,减少驾驶员分心操作,间接提升行车安全。这一领域创新速度会很快,国内新能源厂商已在积极探索各类座舱智能体应用,预计很快会有大量落地成果。关于核心优势,高管强调手机行业是端侧 AI 技术发展最快的领域,每年新旗舰平台对算力、能效、带宽要求不断提升,这些技术积累可直接迁移到汽车领域,如天玑旗舰座舱平台 CX - 1 的 400TOPS 算力以及低比特压缩、内存优化等技术都源自手机端成熟方案。而需重新打造的主要是应用层的跨端协同体验,手机和汽车使用场景差异大,如何让智能体在不同场景下提供自然流畅服务,需与车企、应用开发者共同探索,这也是联发科未来重点投入方向。
针对联发科率先提出的 Agentic AI 技术路线,有媒体询问其关键技术布局和生态优势。联发科表示,AI 技术核心价值在于落地真实用户场景,当前行业主要挑战不是算力不足,而是如何将算力转化为用户可感知体验。联发科重点布局 Always - On 感知技术,让设备低功耗持续感知周围环境和用户行为,同时优化系统架构,解决多应用同时调用 NPU 时的资源争抢问题。在生态建设方面,构建了从硬件到软件的完整体系,硬件层面提供适配智能体场景的双 NPU 和内存技术,工具链层面帮助开发者快速将大模型移植到端侧,系统层面推出天玑 AI 智能体化引擎 2.0,为终端厂商提供统一智能体开发基础。
当被问到近期内存涨价对 AI 行业的影响时,联发科高管坦言,内存和带宽已成为端侧 AI 发展的主要瓶颈,当前手机端算力能满足大部分应用需求,但大模型运行对内存占用和带宽消耗大。为应对挑战,联发科推出 Low Bit 压缩工具包,相同质量模型压缩率提升可达 58%,结合内存硬件压缩、动态模型加载等技术,有效降低内存占用和带宽消耗。虽然内存涨价给终端厂商带来成本压力,但只是暂时现象,当用户体验到 AI 智能体价值后,会愿意为更好体验买单。同时,内存涨价也促使行业更理性思考端云边界,避免盲目追求端侧大模型,而是根据产品定位合理分配端云算力。
还有媒体关注大模型在 AI 手机中的角色以及“龙虾”框架对联发科技术路线的影响。联发科认为,大模型在 AI 手机中有两种主要发展方向,一种是谷歌等 OS 厂商从系统层面向上整合,另一种是豆包等应用厂商从应用层面向下渗透,两种方向都有广阔发展空间,联发科与双方都保持积极合作。“龙虾”框架加速了个人专属 AI 的落地进程,其将 Harness 与大模型分离的设计,让手机可先利用强大 CPU 跑好 Harness 部分,实现个人记忆、场景感知等核心功能,无需等待端侧大模型完全成熟。这也影响了联发科的芯片规划,未来的天玑平台将更注重 CPU 与 NPU 的协同调度,提升系统整体能效。






















