大家好,我是章北海

前几天我发布了一个视频:《本地运行大模型,配合笔记应用王者 Obsidian 做知识管理》

这几天大模型开源世界又热闹起来了,因为 Meta 发布了 Llama 3。

我在这篇文章中详细介绍了Llama 3的两个版本和本地运行方法:

Ollama 目前支持了市面上几乎所有的开源大模型,安装后均可一个命令本地启动并运行。

模型下载完成后就可以直接在 Terminal 中聊天。

打开网易新闻 查看精彩图片

这里老章再推荐一个好用的工具,open-webui:

https://github.com/open-webui/open-webui

它是一个仿照 ChatGPT 界面,为本地大模型提供图形化界面的开源项目,可以非常方便的调试、调用本地模型。它支持各种运行器,还兼容 OpenAI 的 API。

open-webui用起来也很方便,最极简的安装、运行方法是使用 Docker

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Terminal 中执行这行代码,稍等片刻,然后访问localhost:3000即可。

如果你的电脑还没有安装Docker,可以先安装一下,方法也很简单。

我直接安装了docker-desktop,下载后一路下一步即可:https://www.docker.com/products/docker-desktop/

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

然后就可以直接与本地大模型聊天了

打开网易新闻 查看精彩图片

open-webui 前端界面功能还蛮多的,感兴趣的小伙伴可以本地跑起来试试。

open-webui 前端界面功能:

  • ️ 直观的界面

  • 响应式设计

  • 代码语法高亮

  • 全面的Markdown和LaTeX支持

  • 本地RAG集成

  • 网络浏览能力

  • 提示预设支持

  • RLHF注释

  • ️ 对话标记

  • ️ 下载/删除模型

  • ⬆️ GGUF文件模型创建

  • 多模型支持

  • 模型文件构建器

  • ⚙️ 多模型对话

  • 协作聊天

  • 导入/导出聊天历史

  • ️ 语音输入支持

  • ⚙️ 通过高级参数进行微调控制

  • 图像生成集成

  • OpenAI API集成

  • 外部Ollama服务器连接

  • 多个Ollama实例负载均衡

  • 多用户管理

  • 基于角色的访问控制(RBAC)

  • 后端反向代理支持

  • 多语言支持

好了,本文此结束啦,如有帮助,可以给我一个三连吗?爱你呦!