网上教程很多,随便问问AI也很容易,我就是记录一下我的安装、配置的经历。
我的电脑是Mac mini M4,内存32G,主要是为了编程,一开始选的是qwen2.5-coder:14b,后来用了用,又搞了qwen3-coder:30b。
大家根据自己电脑的情况、需求选择合适的大模型。
我在Mac上部署,没用HomeBrew,直接命令行。
Ollama、本地大模型的安装与配置
curl -fsSL https://ollama.com/install.sh | sh剩下的就是等待了,大家注意自己的网络情况。
下载安装,因为需要系统权限,还得输入一下电脑的密码。
都搞定了,可以看一下是否运行成功:
ollama --version我的版本是0.20.5
也可以看启动台或状态栏,有个羊驼图标,打开:
然后就是拉取你选用的大模型:
ollama pull qwen2.5-coder:14b# orollama pull qwen3-coder:30b然后就是漫长的等待了。
一切完毕之后,可以查看下载的模型:
ollama list接着就可以运行了:
ollama run qwen2.5-coder:14b然后就可以在命令行里与大模型对话了。
在浏览器里输入:http://localhost:11434/
也能看到:Ollama is running。
访问:http://localhost:11434/tags
就是
根据自己电脑的配置,可以对大模型进行一些配置调整,可以通过export命令,也可以通过配置文件,或者Ollama GUI的Setting,硬件、需求不一样,大家就自行调整吧。
IDE接入
VSCode和IDEA都一样,我使用的是Continue插件,还有其他的插件,例如Twinny,大家按需使用吧。
下载Continue插件,安装完毕,打开配置:
Continue:Open Settings或者通过插件图标:
name: Local Configversion: 1.0.0schema: v1models: - name: Qwen3-Coder-30B # 在插件界面显示的名称,可自定义 provider: ollama # 提供商指定为ollama model: qwen3-coder:30b # Ollama中的模型名称 apiBase: http://localhost:11434 # Ollama服务地址 - name: Qwen2.5-Coder-14B #自动补全用 provider: ollama model: qwen2.5-coder:14b apiBase: http://localhost:11434 roles: - autocomplete requestOptions: extraBodyProperties: think: false如果你想使用本地大模型来进行代码自动补全,就要额外配置一下,我这里其他功能使用的是Qwen3-Coder-30B,但是这个大模型耗资源,响应慢,不适合自动补全,Continue官方推荐使用QwenCoder2.5 (1.5B)、QwenCoder2.5 (7B)。
至此,基本配置完毕:
热门跟贴