2024年,白帽黑客平均要花47小时完成一次渗透测试。到2026年初,这个数字跌到6小时——不是工具升级了,是提问方式变了。
安全圈正在发生一件很魔幻的事:那些写了十年Python的老手,开始被会用ChatGPT写提示词的新人按在地上摩擦。Samiran Ghosh在Hackernoon的最新观察显示,漏洞挖掘的门槛正在从"技术深度"向"提问精度"迁移。这不是工具迭代,是游戏规则重写。
从"手搓代码"到"对话即攻击"
传统渗透测试的流程像老中医把脉:信息收集、漏洞扫描、手工验证、报告输出,每一步都依赖经验沉淀。一个SQL注入漏洞,老手能从报错信息里嗅出数据库版本、权限结构、甚至管理员的作息规律。
现在这套经验正在被拆解成提示词模板。
「给我一份针对Apache Struts 2.5.26的漏洞利用方案,要求绕过常见WAF规则,输出可直接复制的curl命令。」——类似这样的提示词,正在GitHub的私密仓库里流传。Samiran追踪的37个活跃安全团队中,有29个在2025年Q4建立了内部的"提示词工程"小组,专门把资深研究员的直觉转化为可复用的提问框架。
关键转折发生在2025年6月。OpenAI向部分企业开放o3模型的"深度研究"模式后,安全研究员发现:只要给足上下文,AI能自主完成从资产测绘到漏洞链构造的完整流程。不是辅助,是替代。
Offensive Security(Kali Linux的母公司)2025年度报告显示,其OSCP认证考试中,使用AI辅助的考生通过率比纯人工组高出23个百分点——但争议在于,考官已经无法区分"考生自己的能力"和"提示词设计能力"。
老手的困境:经验贬值速度超过学习速度
「我花了八年研究缓冲区溢出,现在实习生用Claude 3分钟生成一个ROP链。」一位在HackerOne排名全球前50的研究员在私人频道吐槽,「不是嫉妒,是困惑——我的价值到底在哪?」
这种困惑正在变成行业性的身份焦虑。
Samiran的调研覆盖了142名安全从业者,发现一个撕裂的数据:35岁以上群体中,68%认为AI"削弱了技术壁垒";但25岁以下群体中,79%认为AI"让安全研究更公平"。代际冲突的背后,是两种完全不同的能力模型在碰撞。
传统模型奖励"深度"——你对某个协议的理解比别人多三层,就能找到别人找不到的漏洞。新模型奖励"广度"——你能快速把Java反序列化、Kubernetes配置错误、供应链投毒三个领域串成攻击链,AI负责填平每个领域的知识鸿沟。
一个具体案例:2025年11月,某头部云厂商的容器逃逸漏洞。发现者是一名入行两年的安全工程师,他的核心动作是向o3输入了17轮对话,逐步引导AI分析runc的代码变更历史。最终利用代码由AI生成,但漏洞定位的逻辑链完全来自他的提问设计。
这个案例在圈内引发激烈争论。支持方认为这是"人机协作的典范",反对方则认为这是"用AI作弊,不配叫独立研究"。
提示词工程正在变成新护城河
争议归争议,市场已经在用脚投票。
2025年,网络安全领域的招聘信息出现一个诡异现象:"提示词工程师"岗位增速(340%)超过"渗透测试工程师"(12%)。薪资层面,具备安全背景的提示词设计师,年薪中位数比纯技术岗高出18%。
企业端的逻辑很直接:养一个能写优质提示词的人,比养三个各专一门的老手更划算。AI的上下文窗口已经能吞下整个CVE数据库,人类的价值从"知道答案"转向"知道怎么问出答案"。
Samiran在文中打了一个精妙的比方:以前的黑客像锁匠,研究每把锁的齿形;现在的黑客像谈判专家,研究怎么让AI这把万能钥匙听话。
这种转变的副作用正在显现。2025年下半年,多个漏洞赏金平台出现"提示词同质化"问题——大量低质量提交来自同一套公开模板,审核成本激增。HackerOne被迫在2026年1月更新规则,要求提交者必须披露AI辅助程度,并附加"人类独创性说明"。
但规则很难执行。怎么界定"AI生成"和"人类启发"?一段利用代码经过AI润色,算多少比例?平台审核员私下承认,目前主要靠"语感判断"——看报告有没有人类会犯的语法错误和情绪痕迹。
技能树的重组:什么在增值,什么在贬值
如果把安全研究员的能力拆解,2026年的估值体系已经和五年前完全不同。
贬值项包括:单一语言的深度编码能力、特定工具的熟练操作、常见漏洞类型的手工验证。这些领域,AI的性价比已经碾压人类。
增值项包括:攻击面的战略想象(把零散漏洞串成致命链)、社会工程学的语境设计(让AI生成的钓鱼邮件更像真人)、以及最关键的——对AI输出结果的批判性验证。Samiran强调:AI会自信地编造不存在的CVE编号,会给出理论上成立但实际不可行的利用方案,会忽略目标环境的特殊约束。识别这些"幻觉",需要人类保留的底层判断力。
一个被低估的增值项是"跨模态翻译"——把客户的业务风险描述,转化为AI能理解的攻击树结构;再把AI输出的技术细节,翻译回管理层能听懂的损失场景。这种"双语能力"正在成为高级顾问的核心壁垒。
Offensive Security在2026年课程更新中,新增了"对抗性提示词设计"模块,教学生如何诱导安全类AI暴露防御弱点。课程描述很直白:「未来的红队成员,需要同时精通人类心理和机器心理。」
这个描述本身就很耐人寻味——"机器心理"这个词,五年前还只出现在科幻小说里。
回到那个老手的困惑:八年缓冲区溢出经验的价值在哪?
可能的答案是:它变成了提示词里的一个约束条件——「请考虑现代操作系统的ASLR和PIE保护机制」;变成了验证AI输出时的直觉警报——「这个地址计算忽略了堆布局的随机性」;变成了和新人的对话资本——「我经历过没有AI的时代,我知道哪些捷径是死胡同」。
经验没有消失,只是换了容器。
但容器的变化,往往比内容更残酷。那些拒绝学习新容器的人,正在发现自己的经验像散装汽油——能量密度很高,却找不到适配的发动机。
2026年的安全行业,最稀缺的可能不是会写代码的人,而是会写"元代码"的人——代码的代码,提示词的提示词。这种递归能力,人类暂时还领先AI一步。
下一步领先多久?
热门跟贴