4700万用户,每天在这上面消耗2.5亿分钟。平均每人刷了312道题,面试通过率却从2015年的34%跌到了2023年的12%。
这不是某个小众论坛的数据,是LeetCode自己晒出来的成绩单。更讽刺的是,平台越火,用户越焦虑,面试越难通过。
有个现象很有意思:2019年之前,LeetCode题库不到1000道,大家刷完中等难度就能进大厂。现在题库膨胀到3000+,分类标签从12个拆到67个,面试反而更卷了。平台在进化,筛选机制却在退化——它正在把程序员训练成解题机器,而非工程思维的拥有者。
「Two Sum」的六种死法
如果你经历过面试周,一定懂这个场景:凌晨两点,第47次遇到"两数之和",手指机械地敲出哈希表解法,大脑早已关机。
LeetCode的商业模式很精巧。它把算法题包装成游戏关卡:简单题给多巴胺,中等题制造焦虑,困难题贩卖希望。用户付费买会员解锁"企业题库",面试官则付费查看"高频考点分布"。一个完美的闭环——双方都在为同一套筛选系统输血,却没人质疑这套系统到底在筛选什么。
一位在谷歌干了8年的工程师跟我聊过,他们组去年招了6个人,其中4个LeetCode刷题超过500道。入职三个月后,2个连基本的代码审查都过不了。"他们能写出O(n)的解法,但看不懂别人写的O(n²)为什么在实际场景里更快。"
这不是孤例。Netflix在2022年内部调研中发现,新入职的算法竞赛背景工程师,在"设计可维护系统"这项指标上,得分比传统科班出身者低23%。
面试官的视角盲区
问题出在信息不对称。候选人以为刷题=准备面试,面试官以为算法题=工程能力。双方都困在同一个叙事里,没人戳破窗户纸。
微软Azure团队的一位技术主管透露过细节:他们的面试流程里,算法题只占30%权重,但候选人平均投入80%的准备时间在上面。"我见过有人把《剑指Offer》背下来,现场写代码时变量命名全是拼音缩写。这不是能力问题,是认知错位。"
更隐蔽的代价是机会成本。一个中等水平的开发者,刷完300道LeetCode需要400-600小时。同样的时间,足够读完《设计数据密集型应用》、搭三个完整项目、或者深入理解一个开源框架的源码。
但后几件事很难量化,也很难在面试的45分钟里展示。LeetCode提供的是即时反馈:提交、通过、排名上升。这种游戏化设计劫持了人的奖励系统,让人误把解题数量等同于技能成长。
被忽视的「第二曲线」
有些公司已经开始逃离这个陷阱。Stripe在2021年取消了算法题环节,改为"带电脑现场改bug";Figma的面试包含48小时 take-home project,允许查资料、问同事;Evenup(一家法律科技初创公司)直接让候选人在三天内交付一个真实功能模块。
这些变化的底层逻辑是一致的:与其测试"能不能在压力下解谜",不如观察"能不能在真实约束下交付"。
一位从Meta跳到早期创业公司的工程师描述过落差:"大厂面试像高考,有标准答案和评分细则。创业公司面试像相亲,双方都在试探'一起干活会不会互相折磨'。"
两种模式没有绝对优劣,但候选人需要清醒:你刷的每一道题,都在为特定类型的公司投票。如果你想去的是产品驱动、迭代快的团队,LeetCode的边际收益正在快速递减。
替代方案的可行性
停止刷题不等于停止准备。更有效的策略是「逆向工程」:从目标公司的真实代码库倒推能力模型。
具体做法很朴素。去GitHub扒目标团队的开源项目,看他们怎么处理错误边界、怎么命名测试用例、怎么在PR描述里解释设计决策。这些细节比任何"高频题"都更接近日常工作的真相。
一位成功拿到Anthropic offer的候选人分享过经验:他没刷过一道LeetCode,但花了两周精读Claude的公开技术博客,在面试时准确指出了他们混合专家模型(Mixture-of-Experts,一种将大型神经网络拆分为多个子网络以降低计算成本的技术架构)的一个边缘 case 处理缺陷。
面试官的反应是:"你比很多内部员工更懂我们的系统边界。"
这种准备的门槛更高,无法批量复制,也因此形成了真实的区分度。
LeetCode不会消失,它解决的是一个可规模化的问题:如何在短时间内筛选大量候选人。但个体可以选择不参与这场军备竞赛,或者至少,不被它定义自己的价值。
平台最新的年度报告显示,用户日均使用时长从2021年的47分钟增长到2023年的62分钟,但"完成面试后感到准备充分"的比例从61%跌到了38%。
如果投入在增加,信心在流失,我们到底在为什么付费?
热门跟贴