“AI能帮我写爆款脚本吗?”这大概是每个自媒体人内心最真实的呐喊。当Manus因为太火而积分告急,当云端AI服务开始“割韭菜”,我们决定——自己动手,丰衣足食!

至顶AI实验室这次玩了把狠的:在戴尔Precision 5690移动工作站上从零手搓本地版“Manus”,用MCP协议让AI真正成为你的打工人。不吹不黑,这次评测我们要让大家看看,本地AI到底能不能干掉那些“吃积分”的云端服务

打开网易新闻 查看精彩图片

评测机构:至顶AI实验室

测评时间:2025年7月12日

评测产品:戴尔Precision 5690移动工作站

主要参数:搭载NVIDIA RTX 5000 Ada专业级显卡

评测主题:戴尔Precision 5690移动工作站本地部署MCP立刻让AI替你干活

硬件基石:戴尔Precision 5690移动工作站

工欲善其事,必先利其器。本次评测的核心装备是戴尔Precision 5690移动工作站,这台机器的配置堪称移动端算力天花板:

GPU:NVIDIA RTX 5000 Ada专业级显卡

AI算力:为Qwen3-32B这样的大参数模型提供充足的推理支持

定位:移动工作站,兼顾性能与便携

RTX 5000 Ada的加持让这台机器不仅能跑通32B参数量级的本地大模型,还能保证整个MCP工具调用链路的流畅响应。这意味着,你可以在咖啡厅、高铁上、任何有电的地方,让AI帮你完成复杂的内容创作任务。

评测方法论:MCP协议+本地大模型的化学反应 什么是MCP?

MCP(Model Context Protocol,模型上下文协议)是为大模型提供的标准化接口,让AI能够与外部数据源和工具无缝交互。简单来说,它把AI从“只会聊天"升级成了“能动手干活"的全能助手。

技术栈搭建

我们的评测方案包括三个核心组件:

  1. Cherry Studio客户端:支持云端和本地大模型的对话界面,完美兼容MCP协议

  2. Qwen3-32B本地模型:通过Ollama部署在本地,提供强大的推理能力

  3. 抖音MCP服务器:通过API接口实现视频下载、文本提取等功能

配置过程异常简洁:

  1. 在Cherry Studio中添加Ollama本地模型服务

  2. 导入Qwen3-32B模型

  3. 配置抖音MCP服务器,填入预申请的API Token

  4. 启用MCP开关,完成工具链打通

实战测试:从竞品分析到爆款文案生成 测试场景

作为自媒体创作者,我们最头疼的就是脚本创作——如何写出有吸引力的开头?如何设计情绪引导节奏?内容结构怎么安排?这次我们让本地AI系统挑战完整的竞品分析+文案创作流程。

操作流程

Step 1:竞品视频获取
在抖音找到想研究的热门视频,复制链接,通过MCP服务器调用视频下载接口,AI自动获取视频资源。

Step 2:文本提取
利用MCP工具从视频中提取完整文案,无需手动转录。

Step 3:深度分析
将文案喂给Qwen3-32B模型,让它分析脚本的优缺点:

  1. 开头Hook设计是否有效

  2. 情绪节奏把控如何

  3. 内容结构是否合理

  4. 转化逻辑是否清晰

Step 4:文案重构
基于AI的分析结果,让Qwen3生成一套全新的、符合我们风格的视频脚本。

测试结果

整个流程一气呵成,响应速度令人惊喜:

视频下载+文本提取:秒级完成

文案分析:Qwen3详细拆解了原视频的叙事结构、情绪设计和转化路径

新文案生成:根据分析结果快速输出符合要求的脚本框架

更关键的是,所有数据都在本地处理,不用担心隐私泄露,不用焦虑积分余额,也不受网络波动影响。

评测结论:本地AI的"降维打击"

经过完整的实战测试,我们得出以下结论:

优势明显

成本优势:一次硬件投入,无限次使用,不再为云端积分焦虑

隐私保障:竞品分析、商业文案等敏感数据全程本地化

响应速度:RTX 5000 Ada的算力支持下,推理速度不输云端服务

工具整合:MCP协议让AI从"对话助手"进化为"自动化工作流"

适用人群

自媒体创作者:需要批量生成、优化脚本

企业市场部门:对数据隐私有严格要求

AI开发者:想要构建本地化AI工作流

潜在限制

需要一定的技术配置能力(虽然Cherry Studio已经大幅降低门槛)

硬件成本相对较高(但长期看ROI优秀)

本地模型的通用能力仍需持续迭代

当云端AI服务开始“割韭菜”,本地化部署正在成为新趋势。戴尔Precision 5690+Qwen3-32B+MCP的组合证明,你完全可以拥有一个不限次数、随时待命的AI生产力工具。