网上教程很多,随便问问AI也很容易,我就是记录一下我的安装、配置的经历。

我的电脑是Mac mini M4,内存32G,主要是为了编程,一开始选的是qwen2.5-coder:14b,后来用了用,又搞了qwen3-coder:30b。

大家根据自己电脑的情况、需求选择合适的大模型。

我在Mac上部署,没用HomeBrew,直接命令行。

Ollama、本地大模型的安装与配置

curl -fsSL https://ollama.com/install.sh | sh

剩下的就是等待了,大家注意自己的网络情况。

下载安装,因为需要系统权限,还得输入一下电脑的密码。

都搞定了,可以看一下是否运行成功:

ollama --version

我的版本是0.20.5

也可以看启动台或状态栏,有个羊驼图标,打开:

打开网易新闻 查看精彩图片

然后就是拉取你选用的大模型:

ollama pull qwen2.5-coder:14b# orollama pull qwen3-coder:30b

然后就是漫长的等待了。

一切完毕之后,可以查看下载的模型:

ollama list

接着就可以运行了:

ollama run qwen2.5-coder:14b

然后就可以在命令行里与大模型对话了。

在浏览器里输入:http://localhost:11434/

也能看到:Ollama is running。

访问:http://localhost:11434/tags

就是

打开网易新闻 查看精彩图片

根据自己电脑的配置,可以对大模型进行一些配置调整,可以通过export命令,也可以通过配置文件,或者Ollama GUI的Setting,硬件、需求不一样,大家就自行调整吧。

打开网易新闻 查看精彩图片

IDE接入

VSCode和IDEA都一样,我使用的是Continue插件,还有其他的插件,例如Twinny,大家按需使用吧。

下载Continue插件,安装完毕,打开配置:

Continue:Open Settings

或者通过插件图标:

打开网易新闻 查看精彩图片
name: Local Configversion: 1.0.0schema: v1models:  - name: Qwen3-Coder-30B  # 在插件界面显示的名称,可自定义    provider: ollama       # 提供商指定为ollama    model: qwen3-coder:30b # Ollama中的模型名称    apiBase: http://localhost:11434  # Ollama服务地址  - name: Qwen2.5-Coder-14B #自动补全用    provider: ollama    model: qwen2.5-coder:14b    apiBase: http://localhost:11434    roles:       - autocomplete    requestOptions:      extraBodyProperties:        think: false

如果你想使用本地大模型来进行代码自动补全,就要额外配置一下,我这里其他功能使用的是Qwen3-Coder-30B,但是这个大模型耗资源,响应慢,不适合自动补全,Continue官方推荐使用QwenCoder2.5 (1.5B)、QwenCoder2.5 (7B)。

至此,基本配置完毕:

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片