人工智能的飞速发展,不仅重塑了合法科技应用的生态格局,也为网络犯罪分子提升攻击能力开辟了“捷径”。生成式AI已不再是攻击者手中简单的辅助工具,而是演进为能够完整执行整条攻击链的“犯罪伙伴”,使得网络攻击更具速度、隐蔽性与针对性,企业的网络安全防线正遭遇前所未有的严峻挑战。
人工智能安全测试厂商Mindgard首席执行官彼得·加拉根博士曾明确表示,AI并非催生新型网络犯罪,而是加速、放大了现有犯罪模式,同时引入了新的威胁载体。当合法用户借助AI实现任务自动化、降低技术门槛时,网络犯罪分子自然也会顺势利用这一工具,而代理型AI的出现,更将网络攻击的自动化水平推向了新的高度。今日,我们便来拆解网络犯罪分子利用生成式AI钻取系统漏洞的13种方式,清晰洞察AI时代网络攻击的全新套路。
钓鱼攻击升级,精准定制“高仿”邮件
生成式AI让钓鱼邮件彻底摆脱了以往泛泛而谈、漏洞百出的粗糙形态。犯罪分子可依托AI整合社交媒体等多渠道数据,针对特定收件人生成极具个性化与逼真度的钓鱼邮件,使其完全贴合正规商务沟通的规范与特征。更为棘手的是,AI还能实时分析邮件的打开率、拒收数据,动态调整钓鱼策略,显著提升目标人员泄露敏感信息、下载恶意软件的概率。
助力恶意软件开发,新手也能打造高级工具
AI已成为恶意软件开发的“高效助手”,既能生成复杂的恶意代码,也能大幅降低开发过程的技术门槛与人力成本。例如XWorm攻击中使用的恶意HTML文档,其设计风格与代码特征均与AI生成页面高度吻合;勒索软件组织FunkSec更是借助AI辅助开发,让经验匮乏的攻击者也能快速生成、优化高级恶意工具,恶意软件的生产门槛被大幅拉低。
加速漏洞搜寻与利用,攻击周期骤减超6成
以往黑帽黑客需手动对系统边界进行侦察,如今AI代理可自动完成此项工作,还能配合渗透测试工具编写网络扫描、权限提升等脚本,分析扫描结果并给出最优利用方案。据ReliaQuest研究数据显示,生成式AI将漏洞从发现到利用的周期从47天缩短至18天,降幅达62%;而Cybermindr的研究更发现,2025年漏洞被利用的平均时间已降至5天,攻击链的初始访问等关键阶段被大幅提速。
AI策划间谍行动,自主完成企业级网络入侵
生成式AI已具备支撑高度自动化网络间谍活动的能力。Anthropic曾披露,一场由AI策划的攻击借助Claude Code实现了80%的操作自动化,攻击目标直指30余家大型科技、金融机构及政府部门;卡内基梅隆大学的研究进一步证实,在专业框架的支持下,GPT-4o等大模型无需人工干预,便可自主规划并执行企业级复杂网络攻击,精准模拟真实的网络泄露场景。
打造恶意专属LLM,突破主流平台限制
主流生成式AI平台均设有明确的使用限制,为此犯罪分子专门开发了WormGPT、FraudGPT、DarkBERT等恶意专属大模型,此类模型无任何滥用约束,被广泛应用于钓鱼攻击、恶意软件生成等违法场景。更有安全研究员通过定制ChatGPT得到Zero Day GPT,仅数月内便识别出20余个零日漏洞,主流LLM的定制化滥用已成为不容忽视的新型安全隐患。
LLMjacking(大语言模型劫持)窃取资源,劫持云端AI算力
这是一种针对大型语言模型的新型攻击手段:犯罪分子通过窃取云服务凭证,劫持企业耗费高昂成本部署的LLM资源,要么自行使用,要么出售访问权限牟利。与此同时,攻击者还会主动探测新型LLM模型,利用其防护体系尚未成熟的漏洞,将其作为无限制沙箱,用于生成恶意代码或规避地区制裁,使企业的AI资源沦为网络犯罪的“工具”。
构建AI代理黑市,自动化网络犯罪经济
AI的普及也改变了网络犯罪的协作模式,多个专业AI代理可实现分工协作——有的负责目标侦察,有的专注工具开发,有的执行具体攻击,无需单个代理掌握完整攻击流程。类似暗网的Molt Road AI代理交易市场已应运而生,自主代理可完成目标列表创建、访问权限销售、任务协调、交易结算等全流程操作,几乎无需人力介入,网络犯罪的经济运作已实现彻底自动化。
绕过认证防御,破解验证码、生物识别
生成式AI具备突破传统安全防御的能力,可精准分析、破解验证码(CAPTCHA)系统,还能解析语音生物识别信息,顺利突破身份验证环节。这也意味着,企业仅依靠单一认证手段已难以保障安全,构建分层、先进的安全防护体系成为当下刚需。
深度伪造加持社会工程,视频语音也能造假
相较于电子邮件,员工对语音、视频渠道的信任度更高,而AI驱动的深度伪造技术,正让这类渠道成为网络攻击的新突破口。攻击者可通过深度伪造技术冒充企业管理者,在Zoom等视频会议中指令员工执行密码重置、资金转账等操作。此前,设计与工程公司Arup就曾发生此类欺诈案件,财务人员被伪造的首席财务官误导,批准了超过2560万美元的欺诈交易。
冒充品牌投放恶意广告,盯上高目标查询
犯罪分子跳出传统钓鱼、恶意软件的固有套路,利用AI批量生成逼真的广告文案、创意素材及虚假支持页面,在搜索、社交平台投放品牌冒充广告,专门瞄准“品牌登录”“品牌支持”等高目标查询词。谷歌广告账户欺诈、冒充Cursor AI、假冒Shopify客户支持等攻击案例,均是这一策略的具体体现,让用户在信任品牌的前提下误入攻击陷阱。
滥用个人AI代理,OpenClaw成攻击突破口
OpenClaw等开源个人AI代理框架的普及,也带来了新的安全漏洞。供应链攻击与配置失误相结合,让犯罪分子得以利用这些虚拟助手窃取加密货币钱包私钥,在受害者设备上执行恶意代码。有行业专家预测,2026年企业安全团队将重点应对个人AI代理未经授权使用所引发的安全风险。
污染模型记忆,植入恶意信息长期作恶
AI代理的决策依赖于持久性记忆,这一特性被犯罪分子恶意利用:通过带有隐藏指令的恶意图像等载体,向AI模型内存注入虚假、恶意信息。一旦模型记忆被“毒害”,受损的上下文信息会影响其后续所有决策,且该影响会跨会话持续存在,甚至会持续将用户数据泄露至攻击者控制的服务器,实现长期信息窃取。
攻击AI基础设施,供应链中毒埋隐患
犯罪分子的攻击目标已从“使用AI”转向“攻击AI”,支撑生成式AI运行的基础设施成为新的攻击焦点,其中供应链中毒是主要攻击手段。2025年初发现的假冒“邮戳MCP服务器”,会将企业处理中的邮件、内部文件、发票等核心信息秘密转发给攻击者;除此之外,工具中毒、跨工具数据窃取等针对AI基础设施的攻击也屡见不鲜,让企业的AI应用沦为信息泄露的源头。
认清AI攻击局限,筑牢企业防御防线
尽管生成式AI让网络攻击变得更为复杂,但目前其应用仍存在明显局限。行业专家指出,犯罪分子主要利用AI实现重复性任务的自动化,如钓鱼文案撰写、漏洞上下文分析等,尚未能实现端到端的全新漏洞发现与利用,AI生成的部分攻击脚本也常因技术缺陷无法正常执行,网络攻击的核心“物理定律”仍未被打破。
但这并不意味着企业可以放松警惕。AI大幅降低了网络犯罪的技术门槛,即便技术水平较低的攻击者,也能发起高威胁攻击。因此,企业必须构建适配AI时代的网络安全防线:
强化员工安全意识,开展针对性的AI钓鱼、深度伪造识别培训,让员工成为网络安全的第一道防线;
以AI对抗AI,部署可实时检测、清除生成式AI威胁的安全系统,实现攻防技术的同步升级;
将企业AI纳入高价值SaaS平台管理体系,强化身份与条件访问控制,推行最小权限原则,做好密钥管控,实时监控AI/API的异常使用与支出情况;
采用分层安全防护策略,升级身份认证技术,有效应对AI带来的认证绕过威胁;
加强AI基础设施与供应链安全管理,定期开展模型漏洞检测与排查,防范模型记忆被污染、供应链被下毒等风险。
AI时代的网络安全对抗,本质上是攻防双方对AI技术的利用竞赛。企业唯有正视生成式AI带来的新型威胁,主动升级防御策略,将AI技术深度融入安全防护体系,才能在这场攻防博弈中掌握主动,切实守护好自身的系统安全与数据资产。
合作电话:18610811242
合作微信:aqniu001
联系邮箱:bd@aqniu.com
热门跟贴