打开网易新闻 查看精彩图片

用AI写代码的人,平均在第7周开始怀疑人生。

不是模型变蠢了,是你的项目正在经历一种慢性病变——每次会话都在做"合理"的局部决策,但这些决策跨时间拼接后,开始互相打架。

作者Varun Tawde给这种现象起了个名字:第七周之墙(Week Seven Wall)。他描述的状态很具体:前期魔法般的高效,突然变成"不停点yes却逐渐失控"的焦虑。

魔法怎么变质的:一个典型漂移路径

魔法怎么变质的:一个典型漂移路径

想象你在用Claude Code做一个工具。第一周,会话A建议用SQLite,"因为需求简单"。合理,你同意了。

第三周,会话B加入Celery做定时任务。也合理。

第五周,会话C开始写并发写入逻辑。单独看,每个决策都没问题。

但SQLite + 并发写入 + Celery workers = 一个没人主动选择过的架构矛盾。没有单个会话"犯错",但系统正在累积隐性的设计债务。

打开网易新闻 查看精彩图片

Tawde的观察是:很多矛盾不是来自忘记静态规则,而是来自不同时空下的决策,在当时都成立,事后才冲突。

他试过强化提示词、完善CLAUDE.md文档、加更多规则。有用,但不够。因为问题的本质不是"没记住",而是"无法预见未来的自己"。

Axiom Hub的实验:把决策本身变成可追踪的资产

Axiom Hub的实验:把决策本身变成可追踪的资产

他的解决方案不是让AI更聪明,而是让决策过程可见、可质疑、可继承。

Axiom Hub的核心机制像是一个架构决策的版本控制系统

每次关键决策被记录进append-only的JSONL存储,包含当时的上下文和理由。新决策提交时,系统用Claude Haiku检查是否与历史决策冲突。发现矛盾后,人类介入选择路径,这个选择连同理由再次入库,成为后续会话的上下文

技术栈很克制:本地Python CLI + MCP服务器、Kuzu图数据库做关系映射、FastAPI仪表盘供人工审核。没有云,没有账号,决策数据留在本地机器。

Tawde特意强调了一个设计原则:人类保留最终裁决权。AI只负责标记矛盾、呈现选项,不做价值判断。 resolved decision的上下文被结构化保存,让"未来的自己"能理解"过去的自己"为什么选A而不是B。

打开网易新闻 查看精彩图片

长期想做但还没做的:自动清理"输家路径"的代码

当前版本解决的是"知道曾经做过什么决定"。Tawde的下一步是当决策被推翻后,让agent主动识别并重构基于旧决策的代码。

这部分还在开发中。现在的价值已经体现在:开发从"打字yes然后祈祷"变成"有迹可循的协作"。

他在GitHub开源了项目,同时抛出了三个问题:

「有多少人遇到了同样的跨会话漂移?」

「矛盾检测是否比通用的'agent记忆'更有用?」

「AI辅助编程究竟在哪个节点,会从魔法感滑向结构性混乱?」

最后一个问题尤其值得细想。Tawde的假设是"第7周"——但不同项目、不同团队、不同代码库的临界点可能差异巨大。有人可能在第3周就撞墙,有人可能拖到第20周才发现地基已经开裂。

他预感"更多人即将撞上这堵墙"。随着AI编程工具的普及,架构漂移会从少数早期用户的困扰,变成大规模的生产现象。

GitHub仓库地址:https://github.com/varunajaytawde28-design/smm-sync