今天试了Gemma 4 + OpenClaw,不用装CUDA,不用配环境,就三步。Mac上点开Ollama,输`ollama run gemma4:26b`,等十几分钟下载完,它自己就跑起来了。我用的M2 Air,跑E4B很稳,连语音转文字都试了,没卡。
打开网易新闻 查看精彩图片
OpenClaw真的像开了挂,我说“把我手机拍的发票识别出来”,它自动调Ollama、传图、读数、回结果,整个过程没敲一行命令。之前总怕量化后变傻,但这次数学题错了不到1%,和官网说的差不多。
打开网易新闻 查看精彩图片
有人问非N卡行不行?我室友M1 MacBook跑E2B,CPU满但能用。不是飞快,但真能干活。Raspberry Pi 5上我也试了,装个Ollama再拉E2B,内存吃紧但没崩。
打开网易新闻 查看精彩图片
文档里说默认只绑本地,我特意检查了,`netstat -an | grep 11434`,果然只监听127.0.0.1,没乱开。删模型也简单,`ollama rm`一下就清干净,不像以前删不干净占几十个G。
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
热门跟贴