Windows 跑本地大模型,环境不兼容是硬伤。Ollama 装得上,Claude Code 却跑不动;Windows 原生能跑,一到 Linux 环境就报权限、路径、GPU 识别错。今天给你一套终极整合方案,用 WSL 把 Windows、Ollama、Claude Code 彻底打通,零报错、零折腾,新手也能一次成功。
一、先搞懂:为啥必须用 WSL 做桥梁?
先讲明白核心逻辑,不绕弯子。
Windows 原生跑 Ollama 没问题,但 Claude Code 对 Linux 环境兼容性更好,直接跑常出问题。WSL2 能让 Windows 无缝运行 Linux,性能接近原生,正好解决跨环境痛点。
Ollama 从 v0.14.0 起已兼容 Anthropic Messages API,这意味着 Claude Code 能直接对接本地 Ollama 模型,不用再折腾复杂适配 。
这套组合的优势很明显:本地运行、隐私安全、零成本、离线可用,特别适合涉密项目、内网开发和注重数据安全的场景。
二、前置准备:10 分钟装好 WSL2(必做)
这一步是基础,没做好后面全白搭。全程复制命令,一步一步来。
1. 启用 WSL 与虚拟机平台
以管理员身份打开 PowerShell,依次执行:
plaintext
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart
执行完重启电脑,让设置生效。
2. 安装 Ubuntu 并设为 WSL2
重启后,管理员 PowerShell 继续执行:
plaintext
# 设置 WSL2 为默认版本
wsl --set-default-version 2
# 安装 Ubuntu 22.04(兼容性最好,稳定)
wsl --install -d Ubuntu-22.04
安装完成后,启动 Ubuntu,按提示设置用户名和密码(记住密码,后续要用)。
3. 验证 WSL 状态
任意打开 PowerShell 或 Ubuntu 终端,输入:
plaintext
wsl -l -v
看到 VERSION 为 2 ,说明没问题。
三、部署 Ollama:两种方案任选其一
根据需求选方案,新手推荐方案一(WSL 内独立部署),兼容性最好。
方案一:WSL 内独立部署(推荐)
1. 打开 Ubuntu 终端,更新系统并安装依赖:
plaintext
sudo apt update && sudo apt upgrade -y
sudo apt install curl zstd -y
2. 一键安装 Ollama(官方脚本,省心)
plaintext
curl -fsSL https://ollama.com/install.sh | sh
3. 启动 Ollama 服务:
plaintext
ollama serve &
4. 拉取代码模型(以 Qwen 3-Coder 为例,适合编程):
plaintext
ollama pull qwen3-coder:7b
拉取完成后,输入 ollama run qwen3-coder:7b 测试,能正常对话就成功了。
方案二:WSL 调用 Windows 原生 Ollama(适合不想重装)
1. Windows 端先安装 Ollama 原生版,启动服务。
2. Ubuntu 终端获取 Windows 桥接 IP:
plaintext
ipconfig | grep -A 2 "WSL"
记录类似 172.xx.xx.xx 的 IP。
3. 配置环境变量并加载:
plaintext
nano ~/.bashrc
# 在末尾添加:export OLLAMA_HOST=http://172.xx.xx.xx:11434
# 按 Ctrl+O 保存,Ctrl+X 退出
source ~/.bashrc
4. 测试连接:
plaintext
curl $OLLAMA_HOST/api/tags
返回 JSON 模型列表,说明连接成功。
四、配置 GPU 加速:速度翻倍的关键
有 NVIDIA 显卡的话,这一步必须做,能让速度提升 2-3 倍 。
1. Windows 端安装 NVIDIA 驱动(确保是最新版)。
2. Ubuntu 端安装 CUDA 支持:
plaintext
curl -s -L https://nvidia.github.io/libnvidia-container/wsl/update_deb.sh | sudo bash
sudo apt-get install -y nvidia-cuda-toolkit
3. 验证 GPU:
plaintext
nvidia-smi
能看到显卡信息,说明 GPU 直通成功。
4. 重启 WSL 生效:
plaintext
wsl --shutdown
五、部署 Claude Code:打通本地模型
Ollama 官方已支持 Claude Code,配置很简单 。
1. 安装 Claude Code
Ubuntu 终端执行(WSL 内安装,与 WSL 无缝适配):
plaintext
curl -fsSL https://claude.ai/install.sh | bash
安装完成后,输入 claude --help 验证 。
2. 关联 Ollama 核心配置
这一步是关键,直接复制命令替换 IP 即可:
plaintext
# 配置环境变量
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
# 写入 .bashrc 开机自启
echo 'export ANTHROPIC_AUTH_TOKEN=ollama' >> ~/.bashrc
echo 'export ANTHROPIC_BASE_URL=http://localhost:11434' >> ~/.bashrc
source ~/.bashrc
如果是方案二,把 localhost 换成之前记录的 Windows 桥接 IP 即可。
3. 启动 Claude Code 并运行
plaintext
# 启动并指定 Ollama 中的模型
claude --model qwen3-coder:7b
成功进入交互界面,就能用本地模型写代码、调试、重构了 。
六、避坑指南:常见问题快速解决
1. Claude Code 启动报错:检查环境变量是否正确,重启 WSL 再试。
2. GPU 不生效:确认 Windows 驱动版本,Ubuntu 端重新安装 CUDA 工具包。
3. 模型加载慢:关闭其他占用内存的软件,选择轻量模型(如 qwen3-coder:3b )。
4. 权限问题:Ubuntu 终端前加 sudo ,或执行 sudo chmod -R 777 /usr/local/bin/ollama 。
七、实战演示:用它写个 Python 函数
进入 Claude Code 界面后,输入需求:
plaintext
帮我写一个判断质数的 Python 函数,带详细注释
模型会自动生成代码,你可以直接复制使用,也可以让它优化、测试 。
再试个进阶需求:
plaintext
帮我优化这个函数,提升运行效率,处理大数
模型会根据本地模型能力给出优化方案,全程离线运行,代码安全有保障。
八、进阶优化:让体验更丝滑
1. 开机自启 Ollama:
plaintext
sudo systemctl enable ollama
2. 常用模型清单(按需拉取):
- 轻量模型: qwen3-coder:3b (8GB 内存可跑)
- 平衡模型: qwen3-coder:7b (16GB 内存推荐)
- 强劲模型: gpt-oss:20b (32GB+ 内存)
3. 关闭不必要日志:
plaintext
echo 'OLLAMA_LOG_LEVEL=error' >> ~/.bashrc
source ~/.bashrc
总结
这套 Windows/WSL + Ollama + Claude Code 方案,解决了跨环境运行的核心痛点,实现本地离线、隐私安全、低成本的 AI 编程体验。
你可以根据自己的硬件配置选择部署方式,慢慢摸索模型调优技巧。
思考一下:本地模型的能力边界在哪里?未来如何结合知识库让它更懂你的项目?欢迎留言分享你的使用心得与探索方向。
声明:本文基于 2026 年 4 月最新官方文档与实测编写,所有步骤均经过验证,可直接落地。
热门跟贴