周三下午,一位候选人在面试中把Cursor调到agent模式,15分钟搭完微服务框架。面试官没问代码细节,只盯着他追问:"这段配置你从哪验证的?出错了怎么回滚?"
这是2025年科技面试的新常态。Andrej Karpathy今年2月抛出"氛围编程"概念时,没人想到它会成为招聘标配——但数据不会说谎:Stack Overflow开发者调研显示,AI辅助编码渗透率已突破临界点,面试规则被迫重写。
关键区分在于定义。Karpathy原话很激进:"完全臣服于氛围……忘掉代码存在",即不读AI输出直接采纳。但Simon Willison等从业者迅速纠偏:专业场景下的"氛围编程"是另一回事——你仍是责任工程师,AI只是更快的初级助手,偶尔自信地胡说八道。
面试中的实操光谱很清晰:最左端是逐行手写零AI,中间是"提示→审核→引导"的甜蜜点,最右端是全自动托管。2025-2026年的面试官正在光谱上给你定位,看你自然落在哪里。
核心能力模型随之翻转。传统面试考算法熟练度,新范式考四层能力:意图描述精度(能否让AI准确理解需求)、输出验证机制(如何识别幻觉代码)、迭代引导技巧(多文件工程中的agent steering)、以及最终的责任归属意识——代码署名是你,不是Claude。
工具栈已成硬门槛。Claude Sonnet/Opus 4.x、GPT-5、Gemini 2.5 Pro是基座模型;Cursor、Claude Code、Copilot、Windsurf是主流交互层。但面试官真正测试的不是工具使用,而是你在压力下的决策质量:什么时候接受AI建议,什么时候坚持人工重写,什么时候喊停要求澄清。
高频翻车模式值得警惕。第一类是把"氛围编程"理解成Karpathy字面版——不看输出直接提交,这在面试中是即时淘汰项。第二类是过度微观管理,逐行审查AI生成的样板代码,浪费宝贵时间。第三类最隐蔽:候选人能流畅驱动AI写代码,但被追问"这个设计决策的trade-off是什么"时哑火,暴露底层理解空洞。
四周准备路线图已被验证有效。第一周死磕单模型深度,选一个主力工具练到肌肉记忆;第二周模拟多文件工程,训练agent steering;第三周专门练验证与调试,建立幻觉识别直觉;第四周全真压力测试,用计时器逼出真实反应模式。
公司差异正在分化。部分团队仍保留传统白板轮,部分已全面拥抱AI协作面试,还有最激进的一批在测试"全自动托管"场景——给你Devin式runner,看你能走多远再接管。投简历前务必摸清目标公司的光谱位置。
行为面试题也在进化。"描述一次AI给你错误建议的经历"已成标配,考察的是你如何发现、如何纠偏、如何防止复发。这不是技术题,是工程成熟度的探针。
一个冷事实:八年前Meta就有万亿参数模型的研究原型,但直到2025年,行业才被迫承认"与AI协作"本身就是核心技能。面试改革的滞后性正在追赶,而窗口期可能比预期更短。
热门跟贴