大家好,我是程序员鱼皮。

最近 AI 圈儿也太闹腾了,4 月 23 号 OpenAI 发布了 GPT-5.5,紧接着第二天 DeepSeek 就放出了 V4,两个重磅模型前后脚上线。

打开网易新闻 查看精彩图片

光看跑分没什么意思,模型好不好用,还得拿真实项目来检验。

正好 OpenAI 的 Codex 桌面端这段时间更新很猛,已经从一个纯 AI 编程工具进化成了支持 Computer Use、插件市场、内置浏览器的「超级 App」。

所以这篇文章,我全程用 Codex + GPT-5.5 来开发一个完整的全栈项目,后端对接 DeepSeek V4 的 API 实现 AI 能力。

看完这期,你能学会 Codex 的使用方法、感受新模型的实际能力、掌握 AI 编程的实用技巧,可谓一举三得。

点个收藏,咱们开始~

需求分析

这次要做的项目叫「项目学习助手」(project-helper),核心需求很简单:

用户输入一个 GitHub 仓库地址,系统自动克隆项目并分析源码,生成一份通俗易懂的完整分析报告。报告涵盖项目概述、技术栈、目录结构、核心模块、数据流、设计模式、阅读建议等,真正做到「傻子也能懂」。分析过程实时推送进度,已经分析过的项目自动缓存,不用重复分析。

打开网易新闻 查看精彩图片

另外,用户还可以针对源码进行交互式问答,AI 会自主搜索代码、读取文件来回答问题,支持流式输出。

这样一来,你可以快速学会任何开源项目,哪怕面对几万行代码的仓库,也完全不虚。

方案设计

如果你完全没有任何技术基础,可以让 AI 帮你完成方案设计。

但这里为了节省时间和 tokens,我直接告诉 AI 怎么做。

项目采用前后端分离架构:

  • 后端用 Python FastAPI + LangChain + SQLite

  • 前端用 Vue 框架

  • AI 能力对接 DeepSeek V4 的 API

AI 分析和 AI 问答能力的实现还是有点小技巧的,如果一个代码仓库有几万行,难道要全部扔给 AI 自己去分析么?

我的思路是, 采用 AI 工具调用(Tool Use)的方式,给 AI 提供读取文件、搜索代码、获取仓库结构等工具,剩下的交给 AI 自己判断该看哪些文件、该怎么组织答案。这也是 DeepSeek V4 专门优化过的 Agentic 场景。

环境准备 Codex 配置
打开网易新闻 查看精彩图片
环境准备 Codex 配置

打开 Codex,首先确认模型列表里有 GPT-5.5。如果看不到,大概率是账号的问题,可能需要开通更高级的会员,我这里用的是 Plus 会员。

打开网易新闻 查看精彩图片

可以看到界面上已经有了 GPT-5.5 模型选项,还支持调节智能程度(低 / 中 / 高 / 超高),我选择「高」。

左下角进入设置,把工作模式切换为「用于编程」,这样 AI 的回复会更专业、更适合开发场景:

安装 AI 扩展
打开网易新闻 查看精彩图片
安装 AI 扩展

Codex 的 AI 扩展主要包括三类:

  • MCP 服务,用于连接外部工具连接

  • Agent Skills 技能包,让 AI 学会特定的专业技能

  • Plugins 插件,给 AI 增加更多能力

官方自带了一些内置的插件和技能,比如 Computer Use、Browser Use、PDF 处理、演示文稿编辑等:

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

不过这次项目需要的几个扩展,Codex 默认没有,得自己安装。

我们需要下面 3 个扩展:

  1. Firecrawl:联网搜索和网页抓取,让 AI 能获取最新的技术信息

  2. Context7:查询最新的技术文档和 API 用法,减少 AI 瞎编的情况

  3. UI UX Pro Max:前端美化技能,让生成的页面更有设计感

你可以在 Codex 设置里手动添加 MCP 服务:

打开网易新闻 查看精彩图片

但是,要手动填写一堆参数,真特么麻烦啊!

打开网易新闻 查看精彩图片

虽然也可以直接编辑~/.codex/config.toml配置文件来添加 MCP 服务,但还是很麻烦。

这点上 Codex 的体验不如 Copilot 和 Cursor 的可视化安装,Copilot 甚至直接把 MCP 集成到了 VSCode 扩展市场里,一键搜索安装就行。

好在我们可以换一种方式,用每个 AI 服务提供的命令来快速安装。

1、安装 Firecrawl

Firecrawl 是一个联网搜索和网页抓取工具,能让 AI 在开发前先搜索最新的技术信息和文档。我们的项目需要它来查询 DeepSeek V4 的最新 API 用法。

打开终端,输入下列命令:

npx -y firecrawl-cli@latest init --all --browser
打开网易新闻 查看精彩图片

执行后,会自动打开浏览器,要在弹出的页面中点击授权:

打开网易新闻 查看精彩图片

安装完成后,会自动注册 12 个相关技能:

打开网易新闻 查看精彩图片

在 Codex 的技能管理中,就能看到新添加的 Firecrawl 相关技能了:

2、安装 Context7
打开网易新闻 查看精彩图片
2、安装 Context7

Context7 是一个技术文档查询工具,让 AI 能获取到各种框架和库的最新官方文档,避免用过时的 API 写代码。

先在终端输入一行命令来安装:

npx ctx7@latest setup

它会问是安装 MCP 服务还是 CLI + Skills,这里我选择 CLI + Skills。你会发现,现在越来越多工具已经从 MCP 转向 CLI + Skills 的方式了:

打开网易新闻 查看精彩图片

同样在弹出的网页中授权,不用自己获取和输入 API Key,太方便了!

打开网易新闻 查看精彩图片

然后选择要给哪个 AI 编程工具安装,我选择为 Codex 安装:

打开网易新闻 查看精彩图片

安装成功:

打开网易新闻 查看精彩图片

在 Codex 中确认已安装的技能:

打开网易新闻 查看精彩图片

当然,你也可以选择安装 MCP Server 的方式:

打开网易新闻 查看精彩图片

安装后,在 Codex 的 MCP 服务器设置里,就能看到 Context7 MCP 了,这不比自己手动填参数方便多了?

3、安装 UI UX Pro Max
打开网易新闻 查看精彩图片
3、安装 UI UX Pro Max

这是一个前端美化技能包,能让 AI 生成的页面更有设计感,不会有一大堆的 Emoji。

输入一行命令:

uipro init

选择为 Codex 安装技能:

打开网易新闻 查看精彩图片

安装成功:

打开网易新闻 查看精彩图片

在 Codex 的技能管理中,能看到新技能:

打开网易新闻 查看精彩图片

至此,环境准备完成!下次开发项目时,就不用再重复准备了~

新建一个project-helper项目文件夹,在 Codex 中打开:

打开网易新闻 查看精彩图片

然后输入提示词。这里分享一下我实际用的提示词,给大家参考:

## 角色

你是一个全栈工程师,擅长 Python + FastAPI + LangChain 开发。

## 任务

开发一个叫 project-helper(项目学习助手)的 Web 应用,帮助用户快速读懂任意开源项目的源码,傻子也能懂。

用户输入一个 GitHub 仓库地址,系统自动克隆项目并分析源码,生成一份通俗易懂的完整分析报告,涵盖项目概述、技术栈、目录结构、核心模块、数据流、设计模式、阅读建议等。分析过程实时推送进度,已分析过的项目自动缓存,无需重复分析。

用户还可以针对源码进行交互式问答,给 Agent 提供读取文件、搜索代码等工具,让 AI 自主查找代码来回答问题,支持流式输出。

## 技术栈

- 后端:Python FastAPI + LangChain + SQLite + 对接 DeepSeek V4 模型
- 前端:Vue,前后端分离

## 要求

1. 页面需要阅读舒适,具有科技感,代码块有语法高亮,使用 UI UX Pro Max 技能美化页面
2. 开发前,先通过 Firecrawl 联网搜索信息,通过 Context7 查询最新技术文档和用法
3. 必须生成完整可运行的代码,每步完成后必须自主测试验证

简单解读一下这段提示词的几个要点:

  • 角色定义放在最前面,让 AI 进入全栈工程师的状态

  • 任务描述自然语言把需求讲清楚

  • 技术栈只列关键选型,让 AI 自己决定具体实现方案

  • 最后两条要求是关键,让 AI 先查文档再写代码,避免瞎编写法;让 AI 开发完后自主测试,减少翻车

模型我选择 GPT-5.5,智能程度选「高」,权限给完全访问(主要图个省事儿):

打开网易新闻 查看精彩图片

注意,如果你想让 AI 测试得更完整,可以先获取好 DeepSeek 的 API Key 并直接写在提示词里。否则没有 API Key,AI 是没法完成大模型调用测试的。

把上述提示词发送给 AI,接下来就是漫长的等待了。

我这次等了 9 分钟,这期间一直在做提肛,有了 AI 编程后运动量也拉上来了~

AI 生成了完整的前端和后端项目代码,还自动写好了项目文档:

打开网易新闻 查看精彩图片

点击右上角可以查看生成的所有代码文件,总共 19 个文件、1644 行代码:

打开网易新闻 查看精彩图片

点击右上角查看项目概览,可以看到进度、生成结果、信息来源等。

注意看「来源」那栏,我们提供的 3 个技能 AI 都用上了。Firecrawl 用来搜索信息,UI UX Pro Max 用来美化页面,Context7 用来查文档:

打开网易新闻 查看精彩图片

感兴趣的同学可以看下 AI 生成的核心代码。比如问答模块利用 LangChain 实现了一个能调用read_file(读取文件)、grep_code(搜索代码)、repo_map(获取仓库结构)这 3 个工具的 Agent,AI 会自主决定调用哪些工具来回答用户的问题。

测试验证
打开网易新闻 查看精彩图片
测试验证

接下来需要获取 DeepSeek 的 API Key,进入 DeepSeek 开放平台,创建 API Key,记得不要泄露哦!

打开网易新闻 查看精彩图片

大家在使用某个 AI 大模型时,记得要关注一下价格。比如目前 DeepSeek 的 V4-Flash 百万 tokens 输入只要 1 元、输出 2 元;V4-Pro 输入 3 元、输出 6 元(限时 2.5 折优惠到 5 月 5 号)。缓存命中的话更便宜,V4-Flash 输入低至 0.02 元/百万 tokens。

打开网易新闻 查看精彩图片

但是 DeepSeek 目前还没有 Coding Plan,不太建议拿它来 AI 编程,估计消耗的 tokens 会让很多同学吃不消。但是用它来做 AI 应用的大脑非常合适,性价比很高。

根据 AI 给出的指引,在 Codex 中打开终端,设置环境变量,把 API Key 改为你自己的:

export DEEPSEEK_API_KEY=你的_key
export DEEPSEEK_MODEL=deepseek-v4-pro
打开网易新闻 查看精彩图片

不过这种export方式是临时的,终端一关就没了。

更好的做法是让 AI 搞一个环境变量配置文件,我们手动填写就行。

AI 很快完成了任务,新增了.env.env.example环境变量文件:

打开网易新闻 查看精彩图片

注意,如果你的项目要开源,一定记得在.gitignore中忽略.env文件,防止 API Key 泄露到 GitHub 上。

然后直接在编辑器中打开.env文件,把 API Key 填进去:

打开网易新闻 查看精彩图片

配置完环境变量后,让 AI 重启项目:

打开网易新闻 查看精彩图片

接下来人工测试一下。打开网页,输入一个 GitHub 仓库地址,比如我之前带大家开发的 AI 零代码应用生成平台:

打开网易新闻 查看精彩图片

虽然页面的布局和风格中规中矩,但功能是完全正常的。DeepSeek V4 生成的分析结果还挺靠谱的,包含了项目概述、技术栈分析:

打开网易新闻 查看精彩图片

还有核心模块详解、数据流分析、新手阅读建议等等,内容是准确的,生成速度也比较快:

打开网易新闻 查看精彩图片

再来测试下源码问答功能,问它:项目用了哪些设计模式?

AI 调用了工具自己去翻代码,很快就列举出来了,包括门面模式、策略模式等,每个模式都标注了对应的源码文件路径:

打开网易新闻 查看精彩图片

核心功能测试没问题。但如果项目要正式上线,还要测试一堆边界条件,比如仓库不存在怎么办?网络断了会不会崩?缓存命中的逻辑对不对?

一个个手动测太麻烦了,干脆直接让 AI 帮忙。

Codex 内置了 Browser Use 插件,输入@Browser Use使用插件,让 AI 自主测试:

自主测试所有功能,出了问题自动修复,确保所有功能正常可用
打开网易新闻 查看精彩图片

可以看到 AI 在 Codex 内部打开了一个浏览器,它会自己点击页面、输入仓库地址、查看分析结果、测试问答功能,全程自主操作。这期间我又做了一会儿提肛,提麻了。

打开网易新闻 查看精彩图片

等了大概 9 分钟,AI 完成了端到端的自主测试,还修复了好几个它自己发现的 Bug:

打开网易新闻 查看精彩图片

至此项目就开发完了,是不是很简单?

你还可以继续让 AI 优化前端布局、给报告中增加 Mermaid 流程图、支持导出报告文件等等,发挥想象力自由扩展吧~

我的感受

最后聊聊我用 Codex、GPT-5.5 和 DeepSeek V4 的真实感受。

先说 Codex,Codex 的界面主打一个简洁,第一眼看上去甚至不像 AI 编程工具,更像个 AI 聊天助手。但功能其实比较完整,比如 MCP 和 Skills 扩展、插件市场、自动化、Git 集成、Browser Use、Computer Use,AI 编程所需的工程能力基本都具备了。

不过缺点也很明显。默认可用的模型有限,不像 Cursor 和 Copilot 原生就整合了 Claude、GPT、Gemini 各种模型随便切。易用性也差了一些,从 MCP 配置那里大家应该已经感受到了。Copilot 可以直接在扩展市场一键搜索安装 MCP,Cursor 也支持可视化编辑 JSON 配置,Codex 这边还得自己折腾命令行或者手写 TOML。

打开网易新闻 查看精彩图片

再说说 GPT-5.5 模型。有一说一,我测了几个全栈项目,并没有明显感受到 GPT-5.5 和 Claude Opus 模型的差距。只要提示词到位,基本都能一把梭全栈项目的前端和后端,而且核心业务流程大概率一次性跑通。前端表现嘛,中规中矩,虽然实现了响应式,但 UI 没有特别惊艳的地方。。。

打开网易新闻 查看精彩图片

再看看 GPT-5.5 的成本。以开发前面这个项目为例,共消耗了 13 万 tokens,上下文用了 50%。Codex 桌面端目前上下文容量是 258K,开发简单的全栈项目没问题,但复杂工程项目可能会有压力。

打开网易新闻 查看精彩图片

我目前开的是 GPT Plus 会员,一个月 20 刀(150 元左右),每 5 小时和每周有限额。做完这个项目,5 小时的额度基本就用完了,不算扩展功能的话,1 周差不多能做 5 个完整项目。

打开网易新闻 查看精彩图片

最后说说 DeepSeek V4。

我们团队之前的业务有接入 DeepSeek V3,也在带大家做的项目中用过 V3。这次把 V4 接到业务里,生成速度还是挺快的,效果比 V3 提升明显,尤其是对代码的理解和分析能力。而且有了 100 万 tokens 的超长上下文支持,让我们可以做更重的 AI 应用,比如深度研究、复杂项目源码的全局分析等等。

看一下实际的 API 消耗,测试过程中用了 27 次请求,消耗了 5 万多 tokens,花费 0.15 元。按正常用户使用量算,一天 1000 次请求大约消耗 5.5 元,性价比很高。

打开网易新闻 查看精彩图片

总的来说,后续我不太会继续用 Codex 来做日常 AI 编程,做复杂项目时会选择 GPT-5.5 或 Claude Opus 模型,但开发 AI 应用时会优先对接 DeepSeek V4 的 API,便宜好用。

OK 就分享到这里,本文会收录到我免费开源的 ,上千张图、几十万字,带你从 0 开始快速学会 AI 编程,做出自己的产品、跑通变现全流程,一次拿捏。

开源指路:https://github.com/liyupi/ai-guide
打开网易新闻 查看精彩图片

我是鱼皮,持续分享 AI 编程干货。觉得有用的话记得点赞收藏和关注,也欢迎在评论区聊聊:你现在最常用哪个 AI 编程工具?觉得 GPT-5.5 的 DeepSeek-V4 怎么样?