打开网易新闻 查看精彩图片

长期以来,在本地运行大语言模型往往意味着更慢的速度和更紧张的内存资源。Ollama的最新更新基于Apple的MLX框架构建,一定程度上缓解了这些限制——尤其对于直接在本地机器上运行AI智能体的开发者而言。与此同时,本次更新还引入了对NVIDIA NVFP4格式的支持,专门针对大型模型的内存效率进行了优化。

关于Ollama的背景:Ollama是一款开源内核的大语言模型运行时工具,支持本地部署。它提供来自Meta、Google、Mistral、阿里巴巴等主流AI实验室不断扩充的开放权重模型目录,开发者可将这些模型下载后在自己的机器或私有基础设施上运行。Ollama还与编程智能体、AI助手及各类开发工具集成,使这些工具能够调用本地托管的模型,而无需完全依赖外部API。

MLX集成正式落地

2025年初,Ollama宣布正在开发对MLX的支持。MLX是Apple于2023年推出的开源机器学习框架,专为在Apple Silicon芯片上高效运行模型而设计。其核心特性——也是Apple现代硬件的核心优势——是统一内存架构,允许CPU和GPU工作负载在同一份数据上运行,无需传统的数据传输开销,从而降低推理延迟、提升吞吐量。

Ollama的最新版本正式接入了这一架构。官方公告指出,在响应速度和生成速度方面均有所改善,尤其在面向编程的模型上表现突出。此次更新还引入了更高效的缓存机制以及对更新量化格式的支持,进一步降低了交互使用中的延迟。

这些改进使本地模型在日常使用中响应更加灵敏。在本地运行模型不仅能避免将数据发送至外部服务,还赋予开发者对系统部署方式更强的掌控力。通过优化模型在Apple硬件上的运行方式,Ollama让本地部署方案在日常开发工作中更具实用价值。

目前,MLX模型支持仅限于新发布的Qwen3.5-35B-A3B模型,但其他模型预计很快也将跟进。

本地AI智能体的崛起

MLX更新的发布时机,恰好契合了人们对运行在用户本地机器上的智能体系统日益高涨的兴趣。OpenClaw是近期最具代表性的案例之一,在短短数月内便跻身GitHub热门榜单,星标数量超越了众多积累多年的老牌开源项目。

OpenClaw是一款本地AI助手,能够与消息平台、文件及外部工具交互,直接在用户机器上执行任务。它的快速崛起折射出市场对"不只生成文字、还能跨环境执行任务"的AI系统的强烈需求。OpenClaw虽然也支持调用远程模型,但许多用户更倾向于在本地运行——尽管本地运行速度通常明显慢于通过API调用远程模型,但成本也更低。

然而,OpenClaw的迅速走红也引发了安全方面的审视。安全研究人员指出了智能体系统运行模式中潜在的真实风险:在运行时自主决策、将多个工具串联调用,并跨多个服务和权限层级进行交互。这些特性带来了数据泄露和提示注入等安全隐患,尤其在控制机制薄弱或定义不清晰的场景下更为突出。

尽管如此,本地智能体的吸引力不可否认:它能够跨工具执行操作而无需依赖外部API,让用户直接掌控任务执行方式和数据处理位置。随着Ollama集成MLX,这一本地模型的部署方案在Apple硬件上将变得更快、响应更及时。

NVFP4支持带来更高效的内存利用

与此同时,Ollama还新增了对NVIDIA专有NVFP4格式的支持。NVFP4是一种"低精度推理"格式,旨在减少内存占用和带宽消耗,同时保持模型精度。

与FP16等格式相比,NVFP4能够更高效地压缩模型权重,使更大规模的模型得以在硬件条件受限的环境下运行。经NVFP4优化的模型,其输出效果接近生产环境中使用的标准,同时仍可在开发者自己的机器上运行。

这两项更新共同指向AI系统运行方式与运行场所的深层转变:MLX提升了Apple硬件上的性能表现,NVFP4则降低了运行大型模型的资源成本。Ollama将两者整合进统一的运行时工具中,而OpenClaw等上层工具则在此基础上进一步实现现实任务的自动化。

最终呈现的,是一个正在变得越来越易于部署、越来越接近生产级水准的本地优先技术栈——尤其是在数据管控与执行控制至关重要的场景下。

Q&A

Q1:Ollama集成Apple MLX框架后,本地运行大语言模型有哪些具体提升?

A:Ollama集成MLX框架后,利用Apple Silicon芯片的统一内存架构,让CPU和GPU在同一份数据上协同工作,避免了传统数据传输开销。这带来了更低的推理延迟和更高的吞吐量,模型响应速度和生成速度均有所提升,尤其在编程类模型上表现明显。同时,更高效的缓存机制和新量化格式的支持也进一步降低了交互延迟,使本地部署方案更适合日常开发使用。

Q2:NVFP4格式和FP16格式相比,有什么优势?

A:NVFP4是NVIDIA推出的低精度推理格式,与FP16相比,能够更高效地压缩模型权重,从而减少内存占用和带宽消耗。这意味着在硬件资源有限的条件下,开发者也能在本地运行更大规模的模型。同时,NVFP4优化后的模型输出效果接近生产环境标准,兼顾了资源效率与模型精度,适合希望在本地运行大模型的开发者。

Q3:OpenClaw本地AI智能体有哪些安全风险需要注意?

A:安全研究人员指出,OpenClaw等本地AI智能体在运行时会自主决策、串联调用多个工具,并跨越多个服务和权限层级进行交互,这带来了数据泄露和提示注入等安全隐患。尤其在安全控制机制薄弱或权限边界定义不清晰的场景下,风险更为突出。用户在使用本地智能体时,应重视权限管理和访问控制,避免敏感数据在工具链中意外暴露。