各位科技发烧友们,最近开源社区又炸了!这次的主角是谷歌的Gemma 3,但更劲爆的是Unsloth团队带来的优化方案,简直是老黄(英伟达)显卡的福音!
先说重点:Unsloth让Gemma 3的微调速度提升了1.6倍,显存占用减少了60%!这意味着什么?意味着你手里的24GB显卡,不仅能轻松驾驭Gemma 3(12B),甚至连27B的大模型都能跑起来了!而且,还能支持更长的上下文长度,足足提升了6倍!这对于需要处理长文本的任务来说,简直是质的飞跃。 等等,还没完!如果你还在用老显卡(比如Tesla T4、RTX 2080),可能会遇到梯度爆炸的问题。别慌,Unsloth已经帮你自动修复了!还有Gemma 3模型中重复的BOS token,Unsloth也一并搞定,保证你的微调过程顺畅无阻。 Unsloth现在支持的功能简直是全家桶级别:完整微调、预训练,各种模型(Mixtral、MoE、Cohere等等),各种算法(DoRA)统统不在话下! 更让人激动的是,Unsloth还提供了免费的Colab Notebook,让你可以在免费GPU上微调Gemma 3(4B)。而且,他们还上传了动态4-bit量化版本,效果拔群! 当然,如果你想更深入地了解Gemma 3,Unsloth也提供了详细的教程,教你如何正确运行Gemma 3,并修复了GGUF无法处理视觉信息的问题。记住,Gemma团队推荐的参数是:temperature = 1.0, top_p = 0.95, top_k = 64。 最后,如果你想更新Unsloth,只需一行代码:pip install --upgrade --force-reinstall --no-deps unsloth unsloth_zoo 总之,Unsloth这次带来的优化方案,不仅让Gemma 3的微调变得更加高效,也让更多人有机会体验到大模型的魅力。还在等什么?赶紧上手试试吧! 一些国外网友也对Unsloth赞不绝口: * 有人用Radeon XTX显卡,在LM Studio上运行Gemma 3,8k上下文,24GB显存占用,效果非常满意。 * 有人说Unsloth从未让人失望,期待他们能优化Moondream模型。 * 还有人说Unsloth现在支持完整微调,简直是LLM微调的必备工具。 看来Unsloth这次是真的火了!
先说重点:Unsloth让Gemma 3的微调速度提升了1.6倍,显存占用减少了60%!这意味着什么?意味着你手里的24GB显卡,不仅能轻松驾驭Gemma 3(12B),甚至连27B的大模型都能跑起来了!而且,还能支持更长的上下文长度,足足提升了6倍!这对于需要处理长文本的任务来说,简直是质的飞跃。 等等,还没完!如果你还在用老显卡(比如Tesla T4、RTX 2080),可能会遇到梯度爆炸的问题。别慌,Unsloth已经帮你自动修复了!还有Gemma 3模型中重复的BOS token,Unsloth也一并搞定,保证你的微调过程顺畅无阻。 Unsloth现在支持的功能简直是全家桶级别:完整微调、预训练,各种模型(Mixtral、MoE、Cohere等等),各种算法(DoRA)统统不在话下! 更让人激动的是,Unsloth还提供了免费的Colab Notebook,让你可以在免费GPU上微调Gemma 3(4B)。而且,他们还上传了动态4-bit量化版本,效果拔群! 当然,如果你想更深入地了解Gemma 3,Unsloth也提供了详细的教程,教你如何正确运行Gemma 3,并修复了GGUF无法处理视觉信息的问题。记住,Gemma团队推荐的参数是:temperature = 1.0, top_p = 0.95, top_k = 64。 最后,如果你想更新Unsloth,只需一行代码:pip install --upgrade --force-reinstall --no-deps unsloth unsloth_zoo 总之,Unsloth这次带来的优化方案,不仅让Gemma 3的微调变得更加高效,也让更多人有机会体验到大模型的魅力。还在等什么?赶紧上手试试吧! 一些国外网友也对Unsloth赞不绝口: * 有人用Radeon XTX显卡,在LM Studio上运行Gemma 3,8k上下文,24GB显存占用,效果非常满意。 * 有人说Unsloth从未让人失望,期待他们能优化Moondream模型。 * 还有人说Unsloth现在支持完整微调,简直是LLM微调的必备工具。 看来Unsloth这次是真的火了!

JPG
长图
JPG
长图
JPG
长图