21世纪经济报道记者骆轶琪

在开源大模型持续丰富能力矩阵的行业背景下,AI产业链从底层基础设施到上层应用都正加速演进。

2026年被业界定义为是AI应用大年,其中“物理AI”被多家头部厂商尤其看中,而底层基础设施在应用的差异化需求催动下,也面临新的发展走向。

近日,Arm发布多项技术预测,指出2026年将迈入智能计算新纪元,届时,计算将具备更高的模块化特性和能效表现,实现云端、物理终端及边缘人工智能 (AI) 环境的无缝互联。其中还提到,下一个价值数万亿美元的AI平台将属于物理智能领域,智能能力将被植入新一代自主设备与机器人。

Arm中国区业务全球副总裁邹挺接受21世纪经济报道记者采访时指出,对于“物理AI”的发展,“业界完全有能力打造出单台高性能的机器人或自动驾驶系统。但真正的挑战在于,如何实现数万甚至数百万台同类设备的可靠部署。

其背后直指原生AI硬件发展过程中面临的软硬件碎片化问题,由此,对于AI产业链来说,构建完善的软件生态能力,同时部署充分灵活的异构计算硬件基础设施,成为布局关键所在。

谈及今年备受关注的应用场景,“物理AI”必占其一。在前不久举行的CES 2026上,多家芯片头部厂商高管都提到了今年对该领域的期待。

目前业界公认的“物理AI”场景主要包括具身智能和自动驾驶,在方向确定的背景下,技术路线和商业化进展还存在一定分野,距离大规模落地尚需一定时间。

根据Arm对2026年的趋势分析,在多模态模型、更高效训练与推理管线的技术突破推动下,物理AI系统将实现规模化部署,催生全新品类的自主设备。这将帮助医疗健康、制造、交通运输、采矿等多个行业重塑。

此外,面向汽车与机器人自动化场景的通用计算平台将逐步涌现。车载芯片有望通过技术复用与适配,应用于人形机器人或工业机器人领域。这将进一步提升规模经济效益,加速物理AI系统的研发与落地进程。

不过从技术路线看,物理AI目前仍面临世界模型和VLA(视觉-语言-动作)模型两条技术持续演进的命题。

邹挺对记者分析,二者均为物理AI落地的核心技术路线,适配自动驾驶、工业自动化、精密医疗等多元应用场景。其中VLA模型聚焦解决“理解与执行”的核心需求,世界模型则专注攻克“预测与因果”的关键难题,均对算力提出高要求。

“这两条路线各有侧重、优势互补,业界也在探索两种路线的融合:将VLA模型引入世界模型能力以提升环境预测精度,世界模型则融入语言交互接口以增强决策可解释性。”他续称。

邹挺告诉记者,为应对物理AI的发展需求,在内部组织架构方面,2025年11月,Arm完成旗下汽车、机器人及各类自主运行设备相关业务的整合,成立“物理AI”事业部。

“这些领域正朝同一个核心目标加速融合。即打造一套在算力、安全性与可靠性毫不妥协的前提下,实现‘感知-决策-执行’实时闭环的AI方案。”他续称,随着AI技术在各类物理系统中规模化部署,能效表现、完善且成熟的软件生态已成为决胜关键。

“物理AI需要在严苛的功耗与热管理限制下持续运转,并且往往部署在安全关键型应用场景中。而规模化的关键,绝非单纯提升性能,更在于将统一的架构理念贯穿于云端训练、边缘推理及物理系统实时执行的全流程。这就需要一套能够支撑‘从传感器端到中央决策端’分布式智能的平台化方案。”邹挺指出。

对此,Arm推出了一套分层式解决方案。硬件层面,Arm有汽车增强AEIP及Zena CSS产品组合;软件层面,Arm提供KleidiAI库和优化工具,帮助实现模型量化和调优;系统层面则推动云-边-端协同,将高功耗任务卸载到边缘或云端,同时支持低功耗通信协议,形成“架构+硬件+软件+生态”的整体能效优化路径。

“我们深知,业界完全有能力打造出单台高性能的机器人或自动驾驶系统。但真正的挑战在于,如何实现数万甚至数百万台同类设备的可靠部署。过去,由于软硬件技术栈的碎片化问题,行业发展一度陷入停滞。Arm希望通过计算平台、配套工具链及庞大的生态体系,通过‘一次开发、多类物理系统部署’的模式破解这一痛点。”邹挺指出。

作为当前智能手机的核心供应商,Arm也是本轮AI手机热潮的核心“推手”之一。

在2025年,AI手机一个核心特征是,仅在端侧、不联网条件下,高端手机已经具备运行30亿参数规模大模型能力。这背后不仅有赖于开源模型在小型化之后的能力跃升,也离不开芯片硬件层面的支持。

Arm发布的技术趋势中谈到,得益于模型压缩、蒸馏及架构设计的技术突破,当下复杂的推理模型正在实现数量级的规模缩减,转化为小语言模型 (SLM),同时不会牺牲计算能力。这些轻量化模型不仅更易于在边缘侧部署、微调成本更低,还能高效适配功率受限的应用环境。同时,模型蒸馏、量化等超高能效的AI模型训练技术的规模化应用,为这一变革提供了坚实支撑,正逐步成为行业标准。训练能效有望成为衡量AI模型的核心指标。

据悉,搭载Arm Mali GPU中专用神经加速器的智能手机将在2026年推出,这项移动GPU专用的神经技术标志着移动端侧图形和AI能力的重大飞跃,不仅支持更高帧率的4K游戏、实时视觉计算及更智能的端侧AI助手等功能,且所有功能均无需依赖云端连接即可运行。

在技术层面,邹挺对21世纪经济报道记者指出,小语言模型(SLM)对手机的性能、能效、安全性及软件适配能力提出了更高要求。

这既需要CPU、GPU、NPU等异构算力芯片的无缝配合,实现动态负载均衡;也需要突破“性能-功耗-面积”三角,适配手机低功耗约束;同时,由于涉及越来越多的个人数据,需要更加强调安全性;软件生态适配也不能忽视,需兼容多框架与模型压缩技术,降低部署门槛,SLM快速迭代要求产品支持PyTorch、ExecuTorch等框架,同时适配4-bit量化等压缩方案。

因此,在帮助手机承接大算力、多模态能力方面,Arm通过构建“Lumex CSS计算平台+ KleidiAI软件库+开放生态”作为应对。

据介绍,借助Armv9.3 CPU集群,Arm Lumex实现了两位数的性能提升和硬件级安全性;而Lumex搭载的第二代可伸缩矩阵扩展 (SME2) 技术,有更强的AI性能、更低的内存占用,尤其对于音频生成、摄像头推理、计算机视觉或聊天交互等对实时性要求严苛的应用。

KleidiAI目前已集成到多个主流AI框架,包括 Llama.cpp、ExecuTorch、MNN和LiteRT。以中国市场为例,Arm架构CPU在阿里通义千问、百度文心大模型及腾讯混元大模型开源首日便率先完成适配,且三大模型均深度集成Arm KleidiAI。

除了AI手机,近些年被认同作为手机之外下一个端侧入口的XR眼镜也在如火如荼发展。虽然2025年中国市场经历了AI眼镜的“百镜大战”,但行业普遍认为,AR才是未来发展远景,这意味着行业仍在快速演化。

展望2026年,Arm方面指出,头显和智能眼镜等增强现实 (AR) 与虚拟现实 (VR) 可穿戴设备,将在物流、运维、医疗和零售等更广泛的工作场景中落地应用。这一趋势主要得益于轻量化设计和电池续航能力的进步,让解放双手的计算模式在更多场景中具备实用性。

随着外形尺寸不断缩小、AI能力不断增强、连接体验愈发流畅,AR与VR可穿戴计算设备将成为推动职场向更智能、更具辅助价值的未来演进的关键一步。

不过,邹挺对记者指出,AR/VR这类可穿戴设备在企业应用中的日益普及,要求设备在设计时,需持续满足更严苛的形态规格与能耗限制要求。“不同的行业场景对实时渲染、数据处理和交互响应速度的要求差异明显。例如,远程医疗手术对时延极为敏感,而工业培训可能更关注渲染质量和设备续航。

XR可穿戴设备在实际落地过程中,仍面临多个方面挑战。邹挺分析道,其一是要平衡算力与能效。AR/VR穿戴设备存在电池容量有限、机身轻量化的设计约束,因此,在提供高性能计算以支撑复杂功能的同时保障长续航,是此类设备在企业级场景落地应用的关键前提。

其二是多种实时交互(如视频、语音、手势识别)对系统时延提出极高要求,尤其在医疗、工业等关键场景。

其三,由于设备需支持从轻量级到高性能的多样化应用,XR设备还要有多功能异构场景适配能力

对此,Arm认为需要从架构、计算能力、软硬协同等方面应对。Arm C1-Nano非常适合XR(包括VR、AR)、入门级或中端设备,甚至可用于数字电视等场景,同时,Arm不断优化CPU、GPU、NPU等异构计算单元,适配不同设备和应用场景。

此外,邹挺指出,高算力、低延时任务优先采用终端侧与边缘侧处理,同时按需调用云端资源拓展算力上限,既能减轻设备运行负荷,又可保障关键场景下的实时性能。 同时也在推动生态系统合作,优化操作系统、中间件和应用算法,提升整体系统效率,降低时延。

作为AI产业发展的核心基座,AI芯片本身面对的市场需求也在持续演进。除了通用计算的核心芯片GPU和CPU之外,2025年以来,ASIC、NPU等不同类型芯片也备受关注。

邹挺对记者分析,不同类型的AI加速器各具技术优势,需结合具体应用场景与工作负载特性进行选择。其中,NPU作为神经网络推理专用处理器,核心优势为AI架构适配、高能效比、轻量化部署、本地闭环处理及多处理器协同,适用于可穿戴设备、智能扬声器、软件定义智能摄像头以及智能家居设备等场景,满足低功耗、实时响应、数据隐私保护核心需求。

据悉,在推动NPU能力提升方面,Arm核心聚焦两大方向:异构架构协同与全栈软件生态支撑。

在坚持异构架构协同方面,Arm NPU与包括CPU、GPU在内的多元化处理器高效协同,针对不同场景提供更优的算力支撑。例如,Arm Cortex-A处理器作为一款面向多种应用的可编程处理器,集成了Neon/SVE2向量引擎,旨在加速神经网络和各种向量化代码,并原生支持多种数据类型。而对于AI工作负载明确的边缘场景,则可通过Arm Ethos-U85这类专用NPU承载神经网络处理任务,从而释放中央处理器(CPU)资源。

生态支撑层面,Arm为Cortex-A、Cortex-M、Ethos-U等全系列AI硬件方案提供全面的开源运行时支持,并通过Arm KleidiAI为PyTorch、ExecuTorch、Llama.cpp、TensorFlow、LiteRT等主流ML框架提供硬件加速适配。

从整体AI芯片趋势来说,Arm方面指出,特定领域加速技术的兴起,正在重新定义芯片性能,但这一变革并非通过简单区分通用计算与加速器来实现。相反,行业正朝着系统级协同设计的定制化芯片方向演进,这类芯片将从系统层面与软件栈协同设计,并针对特定AI框架、数据类型及工作负载完成深度优化。

其中,亚马逊云科技 (Graviton)、Google Cloud (Axion) 和Microsoft Azure (Cobalt) 等头部云服务提供商正在引领这一转变,展示了紧密集成的平台,即从底层开始将专用CPU、加速器、内存和互连共同设计在一起,是实现可扩展、高效且开发者可访问的AI的核心。这一趋势将推动下一代基础设施——“融合型AI数据中心”加速落地,这类数据中心可最大化单位面积内的AI算力,从而降低AI运行所需的能耗总量及相关成本。

2026年,原生AI应用与AI芯片的协同进化,正指向一个更深层次融合的智能世界。AI不再仅是云端的数据处理工具,而是嵌入设备、融入场景、贯穿系统的“自主神经”。一个由物理AI、边缘推理与云端协同共同编织的智能新纪元,正在芯片与算力的基石上加速展开。