2024年,AI PC成为科技圈最热的话题。但什么才是真正的AI PC?是那些预装了一堆AI应用的"开箱即用"产品吗?我们认为,只要能够流畅运行AI应用的PC,都可以称为AI PC。关键在于,如何让一台普通工作站真正具备AI能力?答案很简单——把AI装进去。

打开网易新闻 查看精彩图片

评测机构:至顶AI实验室 测评时间:2025年1月20日 评测产品:戴尔Precision 5860工作站 主要参数:配置了双路英伟达RTX 5000 Ada显卡 评测主题:戴尔Precision 5860工作站部署Open WebUI,让PC变成AI PC 测试平台:戴尔Precision 5860工作站 本次评测,我们选择了戴尔Precision 5860工作站作为测试平台。这是一款专为高性能计算设计的专业级工作站,我们的测试机配置了双路英伟达RTX 5000 Ada显卡,为本地化AI应用部署提供了充足的算力支持。这样的配置不仅能够运行大规模AI模型,还能满足团队多人同时使用的需求。 评测方案:基于Open WebUI的本地化AI部署 为什么选择Open WebUI Open WebUI是一个开源的本地化AI应用构建与服务框架,它最大的优势在于可以自托管,无需依赖云端服务。通过Open WebUI,用户可以构建专属的聊天机器人、AI搜索引擎、语音对话机器人等各类应用。 相比使用API订阅服务,本地部署的方式虽然前期投入较高,但长期来看成本更低,数据安全性也更有保障。我们选择搭配Ollama来运行各类开源模型,其中主要测试了Llama 3.3 70B和通义千问2.5 Code 32B等大规模模型。 核心功能测试 基础对话能力 部署完成后,Open WebUI提供了与主流聊天机器人几乎一致的交互界面。我们使用Ollama在本地部署了Llama 3.3 70B模型进行测试,对话流畅度和回答质量都达到了预期水平。值得注意的是,70B规模的模型对算力要求较高,但在双RTX 5000 Ada的配置下运行非常稳定。 联网搜索功能 单纯依靠模型的知识储备往往存在局限性。Open WebUI集成了在线搜索引擎服务,可以配置多种搜索引擎API。在实际测试中,当模型无法直接回答问题时,系统会自动进行网络搜索,然后结合搜索结果生成更准确的答案,大大提升了实用性。 语音对话能力 Open WebUI支持文本转语音功能,提供了多种TTS服务选择,包括自带的网页API和本地部署的Whisper等。部分TTS模型还支持自定义音色。测试中,语音回答的流畅度和自然度都令人满意。 Artifacts代码生成 最令人惊艳的是Open WebUI的Artifacts功能。我们使用通义千问2.5 Code 32B模型进行了测试。在不需要任何前端开发知识的情况下,只需用自然语言描述需求,系统就能自动生成可运行的网页代码,并提供实时预览。 我们测试了公司网站首页设计和贪吃蛇网页游戏两个场景,生成的代码都能直接在浏览器中运行,效果出色。这对于不懂编程的用户来说,无疑是一个巨大的福音。 多用户协作 Open WebUI支持多用户管理,首次登录的用户自动成为管理员,可以创建和管理其他用户账号。这解决了传统做法中多人共用一个云端账号导致的聊天记录混乱问题。每个用户都有独立的工作空间,互不干扰。 在多用户同时访问的场景下,戴尔Precision 5860的高算力优势得以充分发挥,32B规模的模型可以支持团队多人同时使用而不出现性能瓶颈。 测试结论 通过本次评测,我们验证了在戴尔Precision 5860工作站上部署Open WebUI的可行性和实用性。双RTX 5000 Ada显卡的配置能够流畅运行70B级别的大语言模型,同时支持团队多人协作使用。 相比订阅云端AI服务,本地化部署方案具有以下优势: 成本可控:一次性硬件投入,无需持续支付订阅费用 数据安全:所有数据都在本地处理,不存在隐私泄露风险 定制灵活:可以根据需求选择和部署不同的开源模型 多人协作:支持团队成员独立使用,避免账号共享的混乱 只要有一台高性能工作站,配合Open WebUI这样的开源框架,就能轻松实现聊天机器人、AI搜索、语音对话、代码生成等常见AI功能,真正打造一台名副其实的AI PC。这或许就是AI PC的未来形态——不是预装应用的"傻瓜式"产品,而是能够让用户自主构建AI能力的开放平台。