大家好,我是Ai学习的老章

分享一篇文章,我用Gemini做了精翻

本地微调Gemma 3 270M模型

谷歌发布了Gemma 3 270M,这是一个用于超高效本地AI的新模型!

只需0.5GB内存就可以在本地运行它。

今天,来学习如何微调这个模型,让它在下棋和预测下一步棋方面变得智能。

技术栈:

  • 使用Unsloth进行高效微调。

  • 使用HuggingFace transformers在本地运行。

加载模型

首先使用Unsloth加载Gemma 3 270M及其分词器。

定义LoRA配置
打开网易新闻 查看精彩图片
定义LoRA配置

将使用LoRA进行高效微调。

打开网易新闻 查看精彩图片

为此,使用Unsloth的PEFT并指定:

  • 模型

  • LoRA低秩(r)

  • 用于微调的层(target_modules)

加载数据集

将微调Gemma 3,使其在下棋方面非常智能。

打开网易新闻 查看精彩图片

给定一系列先前的棋步(缺少一步)和最终结果,它必须预测出缺少的那一步。

为了做到这一点,使用了来自HuggingFace的ChessInstruct数据集。

准备数据集

接下来,使用对话式数据集来微调Gemma 3。

打开网易新闻 查看精彩图片

standardize_data_formats方法将数据集转换为用于微调的正确格式!

定义训练器

在这里,通过指定训练配置(如学习率、模型、分词器等)来创建一个训练器对象。

训练
打开网易新闻 查看精彩图片
训练

完成这些后,开始训练。

损失通常会随着步骤的增加而减少,这意味着模型正在被正确地微调。

打开网易新闻 查看精彩图片

最后,这张图片展示了在微调前后提示LLM的情况:

打开网易新闻 查看精彩图片

经过微调后,模型能够找到确切的缺失棋步,而不是随机生成一些棋步。

很简单,不是吗?

原文:https://blog.dailydoseofds.com/p/fine-tuning-gemma-3-270m-locally