来源:市场资讯

(来源:电脑报少年派)

“他上周刚提交离职申请,今天我在飞书上问他之前负责的项目细节,得到的回复和他平时说话语气一模一样。后来才知道,那不是他本人,是公司用他的文档训练的AI分身。”近日,某互联网公司员工孙宇(化名)发现自己已离职的前同事,仍然在用一种特殊的方式跟自己对接。

孙宇的经历并非个例,“员工炼化”已经成为许多公司未公开的常规操作。企业将员工的数字痕迹转化为可复用的AI资产,再次刷新人们对AI时代劳动形式的认知,以后员工离职不再意味着彻底脱离岗位,“数字分身”会代替你永远留在公司。

打开网易新闻 查看精彩图片

01

大学教育面临“信任危机”?

“只要你在办公软件上留下过文档、聊天记录、会议纪要,这些数据都会被纳入AI训练库。”孙宇透露,他那位离职同事的AI分身,可以回答项目流程、客户需求等常规问题,还能模仿其简洁直接的说话风格,甚至回忆只有团队内部才知道的项目细节。“不过这个分身的能力,取决于投喂的数据质量。可以把它理解为摄取了同事记忆和经验的豆包。”孙宇解释道。

这种技术被称为智能体分身(Agentic Workflow),但人们选择用更具象的类比来定义它——“炼化”,把员工的“魂魄”扔进AI数据库这个“炼丹炉”,技术淬炼后将其重塑成永不离岗的“数字金身”,好比赛博炼丹。

“起初觉得很有趣,”孙宇坦言,“但想想又觉得有些‘诡异’,之前一起插科打诨的真人突然就变成了AI,而你要带着共事的记忆继续和一个‘数字幽灵’对话。”

打开网易新闻 查看精彩图片

从事HR工作的张奇(化名)指出:“‘炼化’员工的核心目的是降低人力成本。”一方面,文档、会议纪要等内容本身就要归档以供后续查阅调用,AI分身只是改造了一下交互入口,把OA系统里的功能键变成“数字人”;另一方面,员工离职往往会带走大量隐性知识,比如项目避坑经验、客户沟通技巧,这些经验很难通过文档完整留存。“AI分身通过聊天记录的投喂,能把这些隐性知识‘固化’下来,相当于让员工的‘脑子’继续为公司创造价值。”

这一现象迅速引发热议,有人吐槽“连离职都逃不掉加班,相当于被公司‘终身压榨’”;也有人表示理解,“如果能通过AI留存经验,避免新人走弯路,其实是件好事”。

这一趋势开始蔓延到更多元的场景,一个名为“同事.skill”的GitHub项目迅速走红,人们除了把离职同事的数据喂进去生成同事skill,还把它扩展到老板、导师、朋友,甚至自己。有网友感慨:“没想到这么快人类就进入了赛博永生时代。”

打开网易新闻 查看精彩图片

自我“炼化”的永生.skill

02

“炼化”人类,由来已久

其实“炼化”人类,并非AI大模型爆发后才出现的新鲜事。从AI 2.0时代开始,甚至更早,“将人类的知识、技能、形象数字化复刻”的实践就已在多个领域展开。

最具代表性的,当数好莱坞的数字资产保卫战。2023年,好莱坞爆发了首次全行业罢工,编剧与演员集体抗议制片方利用AI侵犯其权益,核心矛盾之一就是制片方试图买断演员的数字形象和声音,让他们“死后也能演戏”,并且利用编剧的作品训练AI,批量生成剧本,却不给予任何补偿。

这场持续四个多月的罢工,最终以制片方做出让步告终。制片方承诺限制AI在影视创作中的使用,明确规定AI不能替代编剧、使用演员数字资产需支付合理报酬。

打开网易新闻 查看精彩图片

与好莱坞的商业博弈不同,还有一些“AI分身”承载的是人们的情感寄托。

2017年,一位俄罗斯女孩失去了因车祸离世的挚友,她获得好友亲人的允许后,收集了好友生前8000多条对话记录,开发了一款能模仿其说话方式的AI聊天机器人,并通过与它倾谈来获得慰藉。

如今AI技术不断进步,Replika这类虚拟陪伴应用已经融入越来越多人的生活,许多用户利用逝者的社交数据训练AI,试图实现情感上的“亡者招魂”。这时“炼化”人类不再是一种商业行为,而是人们对抗离别、寄托哀思的方式。

在工业领域,这种“炼化”的实践同样由来已久。

人形机器人之所以能精准完成拣货、装配等复杂动作,背后离不开对人类技工经验的数字化提取。有一种数据采集员岗位,专门负责指导机器人完成各类动作,通过传感器捕捉自己的手腕转动角度、手指发力力度等细节,这些数据处理后,会转化为运动算法,成为机器人“学习”的教材。这个应用其实跟动作捕捉演员的工作很相似。

由此可见,“数字分身”的实践早已渗透到各个领域,大厂对离职员工的“炼化”,只是这一趋势在互联网行业的延伸。不过正因它在职场中的渗透,更直观地触及个人权益,才招致许多批评,并引发关于知识主权的攻防较量。

03

“知识主权”保卫战

在过去,员工的核心竞争力是凭借独特的经验、直觉和能力,成为企业不可或缺的人才;而在AI时代,这些原本属于个人的知识、技能都被AI复刻,员工的不可替代性被大幅削弱,生存空间不断被压缩。

于是,有人开始利用防御性举动来“反炼化”:不够详细的产品逻辑分析、只有团队内部能看懂的缩写和暗语、不同步到软件而是记在本子上的关键决策思路……将自己的经验屏蔽在训练AI分身的数据库之外。

在GitHub上,甚至出现了专门“反炼化”的工具——anti-distill,它能将文档中的核心逻辑、避坑经验等关键信息剥离,只留下看似专业、实则无用的“正确废话”,让AI无法提取有价值的知识。这些“知识脱水”手段,成为大厂员工防止被企业无偿“收割”的无奈之举。

打开网易新闻 查看精彩图片

“反炼化”的anti-distill

不可否认的是,“炼化”技术的普及,正在倒逼人类去产生更深层、更具直觉、无法被文档化的高阶智慧,员工开始从整理文档等重复性劳动中解脱出来,向更高级的创造性工作转型。

然而,对目前的个体而言,感受更多的是技术变革带来的阵痛。

这种“炼化”在法律层面存在许多灰色地带,例如:用员工的信息训练AI却未明确告知或未获得同意,已涉嫌侵犯个人信息权益,其中私密内容的泄露,还可能为员工带来风险隐患;AI分身复刻员工的语气、工作风格,是否构成肖像权、人格权侵权,也存在争议。因此,人们的态度更倾向防御性自保,而非积极拥抱,这些“反炼化”手段不仅不利于团队协作,也为员工带来与AI系统博弈的额外负担。

04

学教育面临“信任危机”?

对于把员工变成新时代的智能体,很多人第一个反应或许是震惊:辛勤工作数年,留给公司的竟成了一台能完美模拟自己决策、且永不疲劳的“职场分身”。但是,这种“赛博克隆”到底是如何在技术层面一步步实现的?

打开网易新闻 查看精彩图片

以前我们觉得,AI只是在上亿语料库中“学说话”,就像东拼西凑的“复读机”。但现在,大厂“蒸馏”盯上的是你工作时,甚至与同事交流的因果逻辑。

“以前有同事离职,会留下一个交接文件,相当于工作说明。”曾在杭州某大厂做后端的小李解释,新人和老员工在交接工作的时候,会留下一个关于项目操作的文档,比如数据库突然“崩”了该怎么办。

而现在,新人直接问老员工“蒸馏模拟器”就行,“很多大厂推行文档文化,要求事无巨细地记录方案,还要日报、周报、月报。从技术上看,这些文档成了RAG的绝佳素材”。

RAG,全称为Retrieval-Augmented Generation(检索增强生成),是一种结合了信息检索和文本生成的人工智能技术。简单来说,RAG通过从大量文档或数据库中查找相关信息,并基于这些信息来生成更准确、更有针对性的回答或内容。

打开网易新闻 查看精彩图片

RAG

技术常被用于提升大模型回答准确率

RAG技术常常被用来降低AI“胡说八道”的风险。当用RAG在老员工留下的文档库里检索出相关片段后,再把这些“干货”塞给大模型(LLM)进行总结。这也就导致老员工写的文档越多,AI对其知识体系的覆盖率就越高。

不过业内人士提到,光引入RAG得出的结果还是有点生硬,现在的进阶玩法是GraphRAG(基于图的检索增强生成)技术。

GraphRAG不是传统RAG的“替代品”,而是“补充方案”——它用额外的成本,换来了复杂场景下的推理能力和可靠性。

它不仅提取文字,还会通过知识图谱识别出文档中的实体与关系,让模拟器更像“真人”。例如,AI通过GraphRAG,把老员工过去处理过10次类似故障的记录连成了一张“逻辑网”:问题触发——解决动作——判断逻辑——异常处理时的常态。

这就是所谓的“人格化索引”:AI检索的不再是某行字,而是某人处理问题的因果链条。它克隆了一个人思考问题的优先级和决策偏好,即使人走了,这张“思维地图”依然留在公司的服务器里,指导着后继者。

05

低成本克隆“灵魂”

这种工作能力可以萃取就算了,怎么跟同事聊天、说话也带有曾经老员工的“风味”?请不要惊慌,这是LoRA(Low-Rank Adaptation,低阶自适应)微调的功劳。

LoRA是高效训练自定义大语言模型(LLM)的最广泛和有效的技术之一。以前要训练一个模型模仿某人,需要大量算力,但现在有了LoRA,成本直接降到了几十块钱。

LoRA的逻辑非常巧妙,它不触动大模型那几千亿个参数的“大脑皮层”,而是在旁边挂一个小小的“插件层”。公司只需要提取你过去几年的办公软件如飞书或钉钉的群聊记录作为训练语料,LoRA就会捕捉这个人独特的语言统计特征:喜欢用长句还是短句,习惯用“我觉得”还是“数据显示”,甚至于表情包使用习惯,以及那些标志性的口头禅。

打开网易新闻 查看精彩图片

这个轻量级的“分身插件”可能只有几首歌那么大,挂载在公用的基座模型上,一个活脱脱的数字化分身就上线了。它能把老员工说话的语气、对待上级任务的反应,甚至那种似是而非的幽默感,都模仿得惟妙惟肖。

总的来说LoRA起到一个“注入灵魂”的作用,但是这种语言风格克隆,比起前面的逻辑克隆,怎么更让我觉得惶恐呢?

06

谁来为“真人智能体”买单?

有了老员工模拟器的问答,当然可以再通过智能体把问答变成工单、把工单变成流程、把流程变成可追踪的闭环。

智能体(Agent)本来指的就是能够在既定权限范围内调用工具、执行流程的软件实体,当这个“蒸馏版”的老员工不仅会说话,还能直接调用数据库、审核代码、给客户发邮件时,它就从一个对话框进化成了AI智能体。

随之而来的,是法律与伦理的无人区。

在技术架构中,这个分身模拟器可以通过API连接公司各个流程网站,这意味着,它不仅拥有你的“知识”,还承接了你的“权力”。

打开网易新闻 查看精彩图片

数字智能体犯错后,责任该如何划分?

那如果分身犯了错怎么办?模拟器毕竟是AI,它在回复客户时,很可能会因为底层模型的“幻觉”,承诺了一个公司根本无法实现的目标,如果导致巨大损失,这个锅谁来背?

是离职员工吗?当然不行,毕竟这个人早已没有了物理操作权。开发模拟器的工程师?可这位员工也会觉得冤枉,毕竟他也只是套了一个算法。公司决策层?他们大概率会声称这只是“系统故障”。

北京互联网法院的工作人员提到,目前法律界趋向于认为,谁拥有该智能体的所有权并从中获利,谁就承担民事责任。但在实际操作中,定位一个AI决策的故障点极其困难,尤其是没有相关案例能作为参考。

另外,当公司使用员工的“智能体分身”获利,是否应该支付持续的授权费?我们写的每一行代码、每一份PPT,难道不该烙印我们自己的“智力产权”吗?这又是一个技术在前面狂奔,而监管法条在后面苦苦追赶的典型难题。

打开网易新闻 查看精彩图片

微信订阅