一份调研报告显示,96%的开发者并不完全信任AI生成的代码在功能上的正确性。但矛盾的是,只有48%的人会在提交前做检查。剩下那52%,某种程度上在用生产环境玩轮盘赌。
这组数据来自Sonar发布的《State of Code》开发者调研报告。Sonar是代码质量分析领域的头部工具商,这份报告采样覆盖了全球多个市场的技术团队。数字背后是一个正在发生的集体行为模式:嘴上说不要,身体很诚实。
「Standup Chaos Simulator」:一个产品经理的复仇
Julien Avezou在DEV社区发布了一款网页应用,专门模拟开发团队站会的混乱现场。用户可以选择「sprint有多 doomed」,然后观看一场假站会像直播一样逐条消息展开。结束后系统会生成一个「团队失调指数」,支持导出GIF分享。
这个项目没有后端、没有数据库、没有认证、没有大模型调用。Avezou用Codex(GitHub的AI编程助手)完成了全部开发。他在介绍里写得很直白:「我们大多数人都经历过那种消耗时间、制造压力、却零产出的站会。」
项目上线后拿到了「Community Favorite」标签。评论区成了开发者的大型创伤互助现场,有人开始晒自己生成的最混乱站会GIF。
这个产品的精妙之处在于,它把「站会痛苦」这个无法量化的情绪,变成了可传播、可比较、可调侃的数据产物。
AI工具链的悖论:不信任,但依赖
Sonar报告里的另一组数据更值得玩味。开发者对AI代码的不信任率高达96%,但实际审查率只有48%。这48%的人里,还有相当一部分只是「快速扫一眼」而非真正测试。
Avezou的站会模拟器本身也是这个悖论的产物。他用AI助手Codex写代码,做了一个嘲讽低效协作的工具。而嘲讽的对象,正是那些因为过度依赖同步会议、导致无法专注深度工作的团队。
工具链正在形成闭环:AI写代码 → AI检测代码 → 人类在站会上讨论AI写的代码 → 因为站会太多,不得不用AI工具来嘲讽站会。
DEV社区同期还有其他AI相关项目提交。有人做了「AI Event Butler」自动抓取技术活动信息,有人做了「Live Heatmap App」把社区活动的空闲时段可视化,还有人做了「阻止自己盲目使用AI的AI工具」——这个套娃式的产品逻辑,和Sonar报告里的数据形成了互文。
从「无用应用」到精准社交货币
Avezou在文末向读者征集两个东西:更混乱的站会GIF,以及更离谱的站会故事。这个设计把产品从「一次性玩具」变成了持续产生内容的社区节点。
「Team Dysfunction Meter」的评分机制没有公开算法,但用户并不在意。他们需要的是那个可以发到Slack或飞书群的GIF,以及附带的潜台词:「看,我们的站会也没这么糟,或者,糟得更有创意。」
这种「无用的精准」是近年来独立开发者的一个趋势。不做解决痛点的产品,做「确认痛点存在」的产品。前者需要教育市场,后者只需要找到已经痛到愿意自嘲的人。
站会模拟器的GitHub仓库和Vercel部署链接都公开可查。Avezou没有设置任何付费墙或数据采集,这让它更像一个社区行为艺术而非商业项目。但恰恰因为零门槛,它在开发者社群里的传播效率极高。
DEV社区将在4月21日举办一场安全主题线上活动,从上午8点到下午5点半(BST时区)。活动宣传语用了三个「Real」排比:Real Security, Real Talk, Real Solutions。这种修辞和站会模拟器的冷幽默形成了鲜明对比——前者是平台官方话语,后者是用户原生内容。
Sonar报告、站会模拟器、以及DEV社区的各种挑战活动,共同构成了2024-2025年开发者生态的一个切片:工具越来越智能,但人对工具的信任曲线并没有同步上升。于是出现了大量「元工具」——用来管理、嘲讽、或反思工具本身的工具。
Avezou在评论区回复了一位用户的建议:「应该加一个『产品经理突然加入站会』的灾难模式。」他没有承诺会更新,但留下了那个开放的问题——你的站会,能生成多高的失调指数?
热门跟贴