大家好,我是Ai学习的老章
分享一篇文章,我用Gemini做了精翻
本地微调Gemma 3 270M模型
谷歌发布了Gemma 3 270M,这是一个用于超高效本地AI的新模型!
只需0.5GB内存就可以在本地运行它。
今天,来学习如何微调这个模型,让它在下棋和预测下一步棋方面变得智能。
技术栈:
使用Unsloth进行高效微调。
使用HuggingFace transformers在本地运行。
首先使用Unsloth加载Gemma 3 270M及其分词器。
打开网易新闻 查看精彩图片
将使用LoRA进行高效微调。
打开网易新闻 查看精彩图片
为此,使用Unsloth的PEFT并指定:
模型
LoRA低秩(r)
用于微调的层(target_modules)
将微调Gemma 3,使其在下棋方面非常智能。
打开网易新闻 查看精彩图片
给定一系列先前的棋步(缺少一步)和最终结果,它必须预测出缺少的那一步。
为了做到这一点,使用了来自HuggingFace的ChessInstruct数据集。
准备数据集
接下来,使用对话式数据集来微调Gemma 3。
打开网易新闻 查看精彩图片
standardize_data_formats方法将数据集转换为用于微调的正确格式!
定义训练器
在这里,通过指定训练配置(如学习率、模型、分词器等)来创建一个训练器对象。
打开网易新闻 查看精彩图片
完成这些后,开始训练。
损失通常会随着步骤的增加而减少,这意味着模型正在被正确地微调。
打开网易新闻 查看精彩图片
最后,这张图片展示了在微调前后提示LLM的情况:
打开网易新闻 查看精彩图片
经过微调后,模型能够找到确切的缺失棋步,而不是随机生成一些棋步。
很简单,不是吗?
原文:https://blog.dailydoseofds.com/p/fine-tuning-gemma-3-270m-locally
热门跟贴