打开网易新闻 查看精彩图片

历经了过去几年各行业在大模型参数规模飙升下狂欢,站在2026年回望,如今我们已然步入人工智能发展史上一场关键的“相变”——AI算力的重心正从云端转向边缘。

作为全球技术分销与解决方案的重要参与者,安富利(Avnet)近日发布了第五次年度《Avnet Insights(安富利洞察)》研究报告(简称《Avnet Insights》),为行业提供了一份极具参考价值的样本。该报告基于对全球1200名工程师开展的调研,呈现出人工智能在全球制造体系中的真实渗透状况,也清晰的展现出底层硬件架构的演进路径。

01 制造业宏观“温差”

2026年的制造业“体感”,呈现出一种微妙的“温差”。

《Avnet Insights》显示,在全球范围内,工程师群体整体保持着“审慎乐观”的态度。77%的受访者认为,产品与解决方案的设计环境正在改善。这反映了市场阶段性回暖的迹象,也同时体现出技术持续提升生产效率与创新能力所带来的信心。

但是,这种乐观并非没有前提。报告同时指出,42%的受访者将积极预期归因于生产周期的加速。换言之,当前的景气在相当程度上建立在更短的开发周期、更快的迭代节奏、更紧凑的交付窗口之上。效率提升带来了增长预期,但也同步提高了企业和工程体系的负荷。

这构成了典型的“结构张力”——行业越是加速向前,行业体系所承受的压力也越发明显。

这种压力不仅来自企业内部的提速,外部环境的重构同样也持续影响研发与供应的决策。《Avnet Insights》调研数据显示,16%的受访者将全球供应链中断视为首要风险;16% 的受访者关注国际贸易政策变动带来的不确定性;15%的受访者担忧原材料成本上涨对项目利润与交付节奏的影响。

打开网易新闻 查看精彩图片

截取自《Avnet Insights》

值得注意的是,各地区对汇率波动的担忧普遍较低,且这一数据明显低于前几年。这缘于在经历多轮冲击之后,企业已经逐步构建起更具韧性的供应链结构与风险对冲机制。尽管汇率、利率等短期波动仍然存在,但其却不再是压倒性的风险源。

更深层的转折,来自技术路径本身。

网络受限、跨境数据流动等问题,让企业逐渐意识到,把核心能力完全压在云端API上,本身就是一种风险。过去几年,云是效率的象征,但在不确定性抬升的周期里,“全部上云”开始显露出结构性短板——只要链路中断、服务限流,业务就将被瞬间中断。

于是,本地算力的角色发生了变化。

当AI推理能力下沉到终端,系统对外部冲击的敏感度也随之下降,风险也从“云中心化”转向“多点分布式”。实际上,这是风险结构调整。

回到个体上,对未来12 个月的预期,工程师群体的主观感受也呈现出明显分化,30%的受访者认为工作变得更加艰难;33%则认为工作变得更加轻松。这种分化或许是一场能力结构的重排——当工具体系、算力形态与工作流同时变化时,适应者获得加速,不适应者则被动承压。

打开网易新闻 查看精彩图片

截取自《Avnet Insights》

这种看似矛盾的结果,恰恰是技术转型期的典型特征。

当前,工程师的实践正在从传统嵌入式开发模式(以 C/C++ 为核心)向AI混合开发模式过渡。一方面,通过在底层系统上,引入PyTorch、TensorFlow Lite等框架进行模型训练、量化、部署与推理优化。另一方面,旧工具链尚未完全退出,新工作流仍在磨合。工程师团队既要保障系统级稳定性与实时性,又要解决模型压缩、硬件加速协同、算力功耗平衡等新问题。

因此,“更难”与“更轻松”,成了能力结构分化表现。对已完成技能升级的工程师而言,AI工具与高层框架降低了部分重复性开发的负担;而对仍处于转型阶段的团队来说,学习曲线、架构重构,以及跨学科协作带来的压力依然显著。

技术正在换挡,而换挡本身,必然伴随短暂的顿挫。

02 算力下沉 驱动规模化量产

当算力开始下沉,工程团队完成技能重组,AI就开始进入真正的工程场景。2026年,是AI的量产节点。《Avnet Insights》给出了非常清晰的信号:56%的工程师所在企业,已经开始向客户正式交付集成AI技术的产品。

这是一个惊人的跃升。要知道,在上一年的同一项调研中,这一比例仅为42%,同比增长了33%。

驱动这一变化的核心因素,是技术路径的融合。在过去,嵌入式AI往往指的是规则引擎、传感器数据处理。但在现在,更多的是多模态AI。《Avnet Insights》显示,全球范围内57%的受访者表示,边缘AI与机器学习在他们的研发设计中同等重要。

这意味着,行业对智能硬件的要求,已经从单一模态处理,升级为对视觉、听觉、触觉乃至工业传感器数据的协同处理能力,并在此基础上实现跨模态的数据理解与决策。

从量产结构来看,这种趋势已经十分明确。89%的受访者证实,其所在企业已实现 (56%) 或即将实现 (33%) 搭载 AI相关产品的量产交付,另有10%的企业正处于AI技术应用的评估阶段。

打开网易新闻 查看精彩图片

截取自《Avnet Insights》

数据进一步体现出,技术融合已经成为产品定义的一部分,并直接体现在硬件架构的选择上。更高算力的NPU(神经网络处理器)、更复杂的传感器融合算法,以及对功耗更精细化的控制能力,正逐渐成为新一代智能硬件设计的基础能力。

然而,AI具体落地在哪里?

Avnet分析,亚太地区的AI 应用重点与全球趋势保持一致,最热门的AI应用呈现出“铁三角”的结构。

流程自动化(42%)。这是降本增效最直接、也是最容易量化回报的路径。通过自动化决策与执行,企业可以压缩人力成本与响应时间。

预测性维护(28%)。 从“设备坏了再修”转向“在故障发生前干预”。这减少停机损失,更提升了整体资产利用率。

故障与异常检测(28%)。在良率控制与质量管理环节,实现毫秒级识别与实时预警,将问题前移至生产过程之中。

其实,这三项应用,本身就是一种信号

AI在生产中落地,其所面对的是三条底层逻辑——效率、可靠性与成本控制。这是直接嵌入生产系统、影响利润结构的基础工具。

03 边缘AI“拦路虎”:功耗、热设计与数据清洗

正是基于核心的底层逻辑,AI一旦从概念验证走向规模部署,评价标准便会从“是否可行”转向“是否可用、是否可持续”。

在这一拐点上,工程问题重心也发生了明显迁移。

在摄像头模组、工业传感器、可穿戴设备等典型边缘场景中,AI面临的挑战在于功耗墙。无论是LLM还是视觉模型,其计算核心都高度依赖密集的MAC运算。一旦计算密度提升,瞬态电流与热量便会迅速叠加,成为系统稳定性的直接威胁。

在实验环境中,这类问题虽然可以通过风扇、散热片,外接电源化解。但在真实场景下,尺寸、成本与可靠性就构成了不可妥协的边界。散热空间有限、电池容量固定、长期运行稳定性等条件决定了要严格控制功耗”。

《Avnet Insights》调查数据也印证了这一点,43%的受访者将“可持续性”列为运营层面的核心挑战。而所谓“可持续性”,本质就是能效比问题。与此同时,产品温度调节同样长期位列设计难点前列,成为边缘AI系统无法回避的硬性挑战。

一方面,系统层面要引入更复杂、更精细的电源管理IC(PMIC),以应对推理瞬间的功耗波动和电流冲击;另一方面,在模型与架构层面,要走低功耗路线。通过int8甚至int4量化来降低调用参数,以换取单位功耗下更高的有效算力。

如果说功耗和散热是边缘AI基础设施的“显性问题”,那么数据质量就是AI系统的“隐形瓶颈”。

《Avnet Insights》调查显示,在产品设计阶段,数据质量(46%)被列为首要挑战,甚至排在成本压力之前。

原因在于,在工业场景中,设备在正常运行时会持续产生大量数据,但真正有价值的故障数据却极其稀缺。与此同时,传感器输出的大多是未经处理的原始信号,需要经历去噪、对齐、特征提取和有效标注,才能转化为模型可用的训练数据。而在这一过程中,样本稀缺、工况干扰和长期分布漂移交织在一起,使得从“现场数据”到“可训练数据”之间,存在着难以被模型本身弥补的工程成本。

这也解释了一个行业共识,工程师们实际投入的时间中,高达80%的时间消耗都在数据清洗、标注与增强(Data Augmentation)上,而非模型微调或结构创新。

这样的现实挑战下,模型层面的不足被进一步放大。有25%的受访者明确表示,“缺乏可用模型”是一项重要障碍。要注意,这里所指的并非通用大模型,而是面向具体工业场景的预训练模型。

正是在这一背景下,企业开始将目光投向大模型本身的使用方式。当“模型不够贴合场景”,如何引入、部署并控制 LLM,成为企业必须直面的工程选择。

目前,在大模型使用层面,行业呈现出一种颇具张力的分化。《Avnet Insights》调查显示,98%的受访者已经在使用LLM,其中81%选择商用模型的API调用方式。但与此同时,仍有37% 的企业明确表达了对内部自研或私有化部署LLM 的强烈兴趣。

打开网易新闻 查看精彩图片

截取自《Avnet Insights》

这种分化,并不是企业在路线选择上的不同,而是由于工业场景下的现实挑战。

一方面,云端模型的“工程成熟度”上具备明显优势。API调用降低了模型使用门槛,使企业可以绕开算力建设、模型训练与维护等复杂环节,快速将LLM 引入现有系统。这也是为什么绝大多数企业在实践中,仍然优先选择云端方案。

但另一方面,当LLM开始深入生产系统,云端方案的边界也逐渐显现。工业数据往往直接关联企业核心工艺参数与商业机密,长期、大规模地将其暴露给外部模型服务,在治理和合规层面始终存在安全隐患。

此外,在企业内网与边缘控制场景中,云端调用所引入的网络往返延迟和不确定性,也使其难以承担对实时性要求较高的任务。与此同时,商用模型作为“黑箱”服务,模型行为难以审计和回溯,这与工业系统对可预测性和责任边界清晰的要求相悖。

如果说之前的挑战集中在“把AI做出来”,那么运维阶段的问题,则关乎“能不能一直用下去”。

《Avnet Insights》调查显示,在运维层面,54%的受访者认为,持续学习与维护是首要运维挑战。

原因很直接,AI模型并非一次性部署的静态组件。随着设备老化、工况变化和环境扰动,数据分布持续漂移(Data Drift),模型若不更新,性能就会下降。

在工业与嵌入式场景中,代表着两类工程问题。

其一,如何对分布在数千公里外的设备进行 OTA(Over-the-Air)模型更新,并保证更新过程的可靠性与可回滚性;

其二,如何在引入新数据进行模型更新时,避免“灾难性遗忘”,即模型在适应新场景后丧失对既有场景的判断能力。

这些问题就需要配套的工程流程、工具链与运维体系支持。

04 区域特征分化,国产AI量产先行

如果只看模型参数、论文数量,全球AI的差距并没有想象中那么悬殊。但把视角拉到产品和产业层面,差异很快就显现出来。AI到底是停留在演示和试点阶段,还是已经被实际应用,正在成为不同区域市场之间的分水岭。

从《Avnet Insights》调研数据来看,中国市场在实际应用上明显走得更快。在回答“贵公司目前在产品设计中整合AI的方式”这一调研问题中,85%的中国受访企业表示,其AI相关产品已经进入了量产交付阶段。

作为对照,其他受调研国家水平仅56%,其中日本、美国等成熟市场大多仍停留在50%左右,德国更是只有41%,整体仍处于相对谨慎推进阶段。

打开网易新闻 查看精彩图片

截取自《Avnet Insights》

这组数字背后,反映的是各区域企业对AI态度——一旦进入量产应用阶段,AI就要同时面对成本、稳定性等现实问题。

这一步,中国走得更早。

安富利中国区总裁董花在解读这一现象时提到,“中国工程师的开放性和前瞻思维,让他们迅速地将AI从概念验证阶段推进至大规模部署阶段。AI的使用现已广泛嵌入和集成到各类产品当中,当今的行业面临着AI带来的重塑、革新甚至是颠覆。AI催生出了过去没有的职业,实现了过去无法实现或想象的应用场景,在AI技术的加持下,企业正积极地提供更多可扩展的解决方案来满足高速变化的市场需求。”

这种差异在制造相关行业中尤为明显。AI能力被直接写进芯片、装进模组,最终进入整机BOM和交付流程中。而一旦进入量产阶段,任何不成熟的设计都会被放大,倒逼算法、硬件和系统架构同步修正。

从更大的结构看,这种“加速度”并非没有原因。一方面,中国AI相关企业数量已经超过5000家,产业密度变高之后,新技术从出现到被吸收进产品体系的路径明显变短,试错成本也随之下降。

在模型供给层面,中国已发布的AI模型数量超过1500个,占全球总量的40% 以上。其中,190个生成式 AI模型已完成公共使用备案。这意味着,相关模型已经具备进入真实商业系统的条件。

对企业来说,“能不能用”这道门槛,被提前打开了。

基础设施的变化同样不可忽视。工业和信息化部公开数据显示,依托8大算力枢纽和25个算力节点,中国已经形成超过780 PFlops的智算规模。随着400Gbit/s光网络和MaaS(模型即服务)平台逐步铺开,算力正在从稀缺资源变成可以被调用的基础能力,中小企业参与AI的成本被明显压低。

在政策和资金层面,节奏也保持着高度一致。中国超过240项 AI相关标准,为技术应用划定了清晰边界;1250亿美元的国家级AI专项基金,推动了47家独角兽企业的成长;与此同时,国家大基金三期在光刻和EDA工具领域的持续投入,也直接补上了AI硬件体系中最底层的短板。

值得注意的是,在中国市场,头部车企已经将AI深度嵌入域控制器、雷达系统和驾驶员监测等核心模块。汽车作为当前系统复杂度较高、容错率较低的消费级产品,对AI在实时性、安全性和稳定性上的要求,显著高于普通消费电子。而这类高标准应用场景,正在加速相关技术在真实环境中的成熟。

从这个角度看,中国AI的“加速度”是一整套产业机制在同一时间转动。

在全球工业AI的落地进程中,不同区域并未走同一条技术路线。相反,呈现出明显的区域互补结构:一方面是以日本为代表的“可靠性优先”路径,另一端则是欧美及墨西哥所主导的定制化驱动路径。

《Avnet Insights》调查数据显示,22%的日本受访者仍处于观望阶段,这一比例显著高于全球10%的平均水平。

在工业自动化与制造系统中,日本工程师更关注数据完整性、系统稳定性,以及产品全生命周期管理。相较于追求短期的性能提升,日本企业更看重系统在未来10年甚至20年内的可预测性。

这也解释了他们对“黑盒”属性较强的系统保持谨慎态度的原因。在涉及停机决策、参数调整、安全控制等关键场景中,日本企业往往更倾向于采用经过数十年验证的控制算法,并在此基础上引入AI,而非完全替代。因此,AI的每一次决策,都需要在工程层面做到可追溯、可验证、可复现。

与日本形成鲜明对比的,是欧美与墨西哥在 AI驱动层面上的个性化与定制化设计。《Avnet Insights》调查数据显示,美国与墨西哥在该方向上的采用率分别达到43%与45%,处于全球领先位置。

其背后的核心技术,是生成式设计算法(Generative Design Algorithms)。《Avnet Insights》指出,生成式设计被认为是未来5年内对工程实践影响最大的技术趋势之一。

05 写在最后:安富利成为技术栈的连接者

《Avnet Insights》显示,展望未来3~5年,96%的受访者认为AI将重塑研发模式。这一趋势被具体化为两个关键词——AI驱动代码生成、AI驱动硬件设计工具。

打开网易新闻 查看精彩图片

截取自《Avnet Insights》

从全球范围来看,工程师正在不断挖掘 AI 的全部潜能,并涌现出一系列多样化的新兴发展趋势。根据《Avnet Insights》调研相关数据,效率提升(11%)被认为是AI带来的最主要影响,其次是实时协作和基于AI的仿真技术(均为9%)。

在亚太地区,工程师正积极提升自身的技术专长,以掌握能够加强AI 模型优化(17%)、提升数据分析(16%)以及AI/ML理解能力(14%)的各项技能,这一趋势凸显出为支撑持续创新,需要加强人才培养。

当这场变革同时涉及芯片、算法、工具链与生产流程,单点能力已无法支撑完整落地,产业开始呼唤新的“中间层”。

在这一背景下,安富利的角色正在发生结构性变化。安富利中国区总裁董花曾指出:“安富利致力研究最新的半导体前沿性技术以及如何实现与AI 融合的产品开发和应用。在中国,我们拥有广泛的行业客户基础,投入专职负责AI 相关半导体产品的技术人员,支持我们所服务的企业开发出更具市场领先地位和竞争力的智能化产品。我们将持续打造专业团队,与企业紧密合作,共同将AI战略愿景转化为切实可行的市场化方案。”

站在2026年回望,AI产业正经历一场从“云端造梦”到“边缘实战”的深刻祛魅。

在这一转折点上,安富利(Avnet)发布的《Avnet Insights》报告像一支行业“体温计”。它传递出清晰的信号——AI下半场的竞争焦点,已经从算法精度的“天花板”之争,全面转向工程落地“颗粒度”的比拼。

在此背景下,产业链的连接逻辑正在发生质变。随着软硬件解耦带来系统复杂度的指数级攀升,传统元器件分销模式逐渐触及能力边界。市场迫切需要的不再只是高效的供应链执行者,而是能够弥合芯片底层架构与应用层需求之间鸿沟的“技术栈连接者”。

安富利的角色因此具有标本意义。其能力重心正从“供应链执行”向“工程赋能”迁移:一方面打通异构计算(CPU + GPU + NPU)之间的协同瓶颈,另一方面补齐从芯片原厂 SDK 到终端应用之间的工具链断层。

当AI回归工程本质,“连接者”的价值,或将远超“传递者”。