打开网易新闻 查看精彩图片

3毫秒完成一次神经网络推理,云成本直降七成——这不是某家AI独角兽的内部工具,而是Chrome浏览器124版本起内置的WebNN(Web Neural Network API,网页神经网络接口)。

Google从2021年开始推进这个标准,W3C(万维网联盟)去年正式发布规范。但直到最近,一批前端开发者才发现:原来浏览器早就内置了直接调用NPU(神经网络处理器)、GPU的通道,根本不需要等WebGPU成熟。

WebNN是什么:把硬件加速ML塞进浏览器

WebNN是什么:把硬件加速ML塞进浏览器

简单说,WebNN让JavaScript能直接操作硬件加速的机器学习算子。它提供了一套图构建API,开发者可以用代码"搭积木"式组装神经网络。

核心流程四步走:创建上下文(选NPU/GPU/CPU)→ 用MLGraphBuilder(图构建器)搭网络结构 → 编译成可执行图 → 喂数据出结果。上面那段手写数字识别的代码,从784维输入到128维隐藏层再到10维输出,全程在浏览器本地跑完。

支持的算子覆盖主流需求:卷积(conv2d)处理图像、批归一化(batchNormalization)稳定训练、各类池化(pooling)降维,还有ReLU、Softmax等激活函数。换句话说,你在PyTorch或TensorFlow里常用的层,这里基本都能找到对应。

打开网易新闻 查看精彩图片

检测支持很简单:判断`'ml' in navigator`就行。目前Chrome 124+、Edge 124+已实装,Firefox和Safari还在跟进。

为什么现在值得关注:成本结构的质变

为什么现在值得关注:成本结构的质变

一位ML工程师的迁移案例很能说明问题。他们把数字识别服务从云端搬到WebNN本地推理,延迟从50毫秒(服务器往返)压到3毫秒,云账单砍掉70%。

这个对比暴露了一个行业惯性:过去几年,端侧AI的叙事被手机App垄断,网页端要么用WASM(WebAssembly,网页汇编)硬跑模型,要么乖乖调云端API。WebNN的出现把第三条路打通了——直接走浏览器的硬件抽象层,既不用打包原生应用,也不受限于JavaScript的性能天花板。

技术细节上有两个关键设计。一是设备类型可指定:`'gpu'`优先用显卡,`'cpu'`兜底兼容,`'npu'`专门调用神经网络加速单元。二是异步架构全链路:createContext、build、compute全是Promise(异步承诺),不阻塞主线程。

这对实时交互场景很友好。比如网页版视频会议的背景虚化、浏览器内运行的代码补全、甚至轻量级的图像生成——这些以前必须后端支撑的功能,现在可以彻底端侧化。

打开网易新闻 查看精彩图片

生态进展与落地门槛

生态进展与落地门槛

标准层面,WebNN 1.0规范去年定稿,但实现进度分化明显。Chromium系(Chrome、Edge、Opera)走在前面,WebKit(Safari)和Gecko(Firefox)的优先级相对较低。这种碎片化是网页新API的常态,参考WebAssembly的普及曲线,大概需要2-3年才能形成稳定基线。

对开发者的实际门槛在于模型转换。WebNN没有原生模型格式,需要从ONNX(开放神经网络交换格式)或TensorFlow.js转图。微软和Intel在GitHub上维护了转换工具链,但复杂模型(如Transformer架构)的算子覆盖仍有缺口。

另一个隐性成本是调试体验。浏览器DevTools(开发者工具)对ML图的可视化支持几乎为零,性能分析也得靠console.log(控制台日志)硬埋点。这和成熟的Python ML生态差距明显,需要开发者有更强的底层耐心。

但免费和内置这两个属性太香了。对比TensorFlow.js的WASM后端,WebNN在支持NPU的设备上能有5-10倍能效比提升;对比调OpenAI或Claude的API,本地推理的边际成本为零。

Google把这个API藏了三年没大力宣传,可能和战略优先级有关——既要推自己的WebGPU,又不想放弃ML专属优化路径。但现在Chrome市占率超六成,WebNN的实际覆盖人群已经过亿。

你最近有在浏览器里跑模型的需求吗?如果延迟能从50毫秒压到3毫秒,哪些功能值得从云端搬回本地?