打开网易新闻 查看精彩图片

如果你正在开始编程学习之旅,并希望加速这一过程,借助AI工具来降低入门难度或许是个不错的选择。毕竟,编程是一个颇具挑战的领域,任何能帮助你提升效率的方式都值得考虑。

不过在开始之前,有一点需要特别说明:请将AI作为学习编程语言的辅助工具,而不是替代真正学习过程的捷径。它应该是你的助手,而不是取代你掌握技能的手段。

在需要使用AI时,出于以下几点考量,笔者始终倾向于选择本地安装的方案。其一,本地运行的AI不会给公共电网带来额外负担;其二,无需担心第三方窥探你的查询内容,从而真正保障隐私安全。

基于上述考虑,Ollama成为本文推荐的本地AI工具。Ollama使用简便、灵活可靠,深受开发者欢迎。

如果你的集成开发环境(IDE)恰好是Visual Studio Code(VS Code),那么恭喜你——VS Code可以与本地部署的Ollama实例无缝集成。

下面将逐步介绍具体的配置方法。

前置条件

要完成本文所述的配置,你需要一台运行Linux、macOS或Windows桌面操作系统的计算机。本文将以基于Ubuntu的Linux发行版(Pop!_OS)为例进行演示。如果你使用的是macOS或Windows,唯一需要调整的步骤是Ollama和VS Code的安装方式——在这两种系统上,只需下载对应的安装程序,双击运行并按照向导完成安装即可。

在Linux上,安装过程略有不同,下面将详细说明。

第一步:安装Ollama

首先安装Ollama。如果你使用的是macOS,请下载.dmg安装包;Windows用户则下载.exe文件,双击运行即可完成安装。

在Linux上,打开终端窗口,执行以下命令:

curl -fsSL https://ollama.com/install.sh | sh

安装开始前,系统会提示你输入sudo密码。

安装完成后,还需要为Ollama拉取一个特定的大语言模型。在macOS和Windows上,打开Ollama的图形界面,找到查询输入框,点击向下箭头,输入codellama,然后点击对应条目完成模型安装。

在Linux上,打开终端,执行以下命令拉取所需的大语言模型:

ollama pull codellama

第二步:安装VS Code

同样地,macOS和Windows用户只需下载对应操作系统的VS Code安装包,双击运行并按照安装向导操作即可。

在Linux上,你还需要根据所用发行版下载对应格式的安装包(Debian系发行版使用.deb,Fedora系发行版使用.rpm,或者使用Snap包)。

下载完成后,切换到安装包所在目录,根据你的发行版类型执行以下对应命令:

基于Ubuntu的发行版:sudo dpkg -i code*.deb

基于Fedora的发行版:sudo rpm -i code*.rpm

Snap包:sudo snap install code --classic

至此,两个核心工具已安装完毕。

第三步:配置VS Code与Ollama集成

下一步是配置VS Code与Ollama协同工作,为此需要安装一个名为Continue的扩展插件。

按下Ctrl+P(macOS上为Cmd+P),在弹出的输入框中输入:

ext install continue.continue

扩展安装完成后,点击左侧边栏中的Continue图标。在弹出的窗口中,点击"选择模型"下拉菜单,然后选择"添加聊天模型"。

在接下来的窗口中,从提供商下拉菜单中选择Ollama。

然后,确保切换到"本地"选项卡,点击每条命令右侧的终端图标。这将打开内置终端,按下回车键依次执行各条命令。

当第一条命令(聊天模型命令)执行完毕后,以同样的方式执行第二条命令(自动补全模型)和第三条命令(嵌入模型)。整个过程需要一定时间,请耐心等待。每个步骤完成后,旁边会显示绿色对勾标记。

此时点击Continue扩展图标,你应该能看到一个全新的聊天窗口,已与本地部署的Ollama实例成功连接。至此,一切配置完毕,可以开始使用了。

Q&A

Q1:Ollama是什么?为什么推荐本地安装Ollama而不是使用云端AI?

A:Ollama是一款可在本地运行的AI工具,支持Linux、macOS和Windows系统。推荐本地安装主要有两个原因:一是本地运行不会增加公共电网的用电负担;二是查询内容不会上传至第三方服务器,能够有效保护用户隐私。对于有隐私顾虑或希望离线使用AI的开发者来说,Ollama是一个灵活可靠的选择。

Q2:在Linux上安装Ollama和VS Code需要执行哪些命令?

A:在Linux上安装Ollama,只需在终端执行:curl -fsSL https://ollama.com/install.sh | sh,然后用ollama pull codellama拉取所需的大语言模型。安装VS Code时,根据发行版类型选择对应命令:Ubuntu系使用sudo dpkg -i code*.deb,Fedora系使用sudo rpm -i code*.rpm,或通过sudo snap install code --classic安装Snap包。

Q3:VS Code中的Continue插件如何与Ollama连接?

A:安装Continue插件后,在VS Code中按Ctrl+P,输入ext install continue.continue完成安装。随后点击左侧边栏的Continue图标,在"选择模型"菜单中添加聊天模型,提供商选择Ollama,切换到"本地"选项卡,依次在内置终端中执行聊天模型、自动补全模型和嵌入模型三条命令,全部完成并显示绿色对勾后点击"连接",即可在VS Code中使用本地Ollama进行AI辅助编程。