Ollama v0.6.4 预发布版重磅更新!

Ollama作为当前最热门的本地大模型运行框架,近日推出了v0.6.4 预发布版本,带来了一系列关键修复和优化!本次更新重点改进了Gemma 3的性能表现,并修复了多个影响体验的 Bug,AI 玩家们赶紧来一睹为快!

主要更新内容

  1. 1./api/show 新增模型能力显示(如视觉支持)

  • • 现在通过/api/show接口可以查看模型的完整能力,包括是否支持多模态(如图像识别),方便开发者更灵活地调用模型功能。

2.Gemma 3 内存泄漏问题修复

  • • 此前 Gemma 3 在长时间推理时可能出现OOM(内存不足)崩溃,v0.6.4 优化了内存管理,运行更稳定!

3.Gemma 3 多语言字符处理增强

  • • 修复了 Gemma 3 对**非英文字符(如中文、日文)**的识别和生成问题,输出质量更高!

4.DeepSeek 架构上下文偏移问题修复

  • • 部分采用 DeepSeek 架构的模型(如 DeepSeek LLM)在长文本生成时可能出现**“上下文错乱”**,本次更新彻底解决!

5.Gemma 3 长文本输出优化(512/1024 tokens 后质量下降修复)

  • • 在 v0.6.3 中,Gemma 3 生成超过 512 或 1024 tokens 后,回答质量会明显下降,新版本已修复该问题,长文生成更流畅!

6.️ Linux 平台新增 RDNA4 显卡支持(AMD 用户狂喜!)

  • • 现在RDNA4 架构显卡(如 RX 7000 系列)在 Linux 上也能更好地运行 Ollama!

如何升级?

如果你是 Ollama 用户,可以通过以下命令更新到最新预发布版本:

ollama upgrade

或手动下载最新版本:Ollama GitHub Release[1]

为什么这次更新很重要?

  • Gemma 3 用户:终于不用再担心内存爆炸或长文本崩坏了!

  • 非英语用户:生成质量提升,特别是中文、日文等复杂字符的处理更精准。

  • AMD 显卡玩家:RDNA4 支持让 Linux 用户也能畅快跑模型!

结语

Ollama v0.6.4 虽然只是预发布版,但已经解决了多个关键问题,特别是Gemma 3 和 DeepSeek 架构的稳定性大幅提升!如果你是 AI 开发者或本地模型爱好者,强烈建议升级体验!

引用链接

[1]Ollama GitHub Release: https://github.com/ollama/ollama/releases

我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,让AI助力您的未来发展。