英特尔与Google宣布深化技术合作,共同推进下一代人工智能(AI)与云基础设施的协同创新。此次合作聚焦多代英特尔®至强®处理器的深度优化,以及基于定制专用集成电路(ASIC)的基础设施处理单元(IPU)的联合开发,旨在为全球用户构建更高效、灵活且可扩展的AI系统。
随着AI应用的快速普及,数据中心对异构计算的需求日益增长。英特尔®至强®处理器凭借其强大的通用计算能力,成为支撑AI训练、推理及通用工作负载的核心组件。Google Cloud已在其全球基础设施中广泛部署基于至强®处理器的平台,包括采用最新英特尔®至强® 6处理器的C4和N4实例。这些平台不仅支持大规模AI训练的协调调度,还能满足低延迟推理和通用计算的需求,显著提升了系统性能与能效。
为应对超大规模AI环境对基础设施效率的挑战,英特尔与Google正联合开发基于定制ASIC的IPU。作为一种可编程加速器,IPU能够将网络、存储和安全功能从主机CPU中分离,从而释放更多算力资源,优化系统利用率,并提升性能表现的可预测性。通过将传统由CPU承担的基础设施任务转移至IPU,云服务提供商得以在扩展规模的同时降低整体系统复杂性。
英特尔首席执行官陈立武强调,AI的规模化部署需要均衡的系统架构,而非单一加速器的堆砌。CPU与IPU的协同设计,能够平衡通用计算与专用加速能力,为现代AI工作负载提供性能、效率与灵活性的完美结合。他指出,此次合作将推动AI基础设施向更开放、可扩展的方向发展,助力全球企业加速创新。
Google高级副总裁兼AI基础设施首席技术官Amin Vahdat表示,从训练编排到推理部署,CPU始终是AI系统的基石。英特尔至强产品路线图的持续演进,为Google满足工作负载性能与效率需求提供了坚实保障。双方近二十年的合作经验表明,通用计算与专用加速的深度融合,是应对AI时代挑战的关键路径。
此次合作还涉及多代至强®处理器的协同优化,旨在降低Google全球基础设施的总体拥有成本(TCO)。通过硬件与软件的联合调优,双方将进一步提升AI训练与推理的效率,同时优化通用计算任务的执行效果。这一成果不仅惠及Google自身业务,也将为全球开发者提供更强大的云服务支持。
业内分析认为,英特尔与Google的合作标志着AI基础设施领域的一次重要突破。通过将CPU的通用性与IPU的专用性相结合,双方正在重新定义现代数据中心的架构标准。这种“软硬协同”的创新模式,有望成为未来AI系统设计的主流方向,为行业树立新的技术标杆。





















