如果有一天,你从公司离职,正准备挥一挥衣袖,奔赴下一个战场。结果扭头一看,你的工位上竟然还坐着一个“你”——一个完全复制了你语气、习惯、工作风格的AI数字分身,正在给同事们解答问题、制作表格,继续你那未竟的“打工事业”。
这不是什么《黑镜》新出的剧本,而是最近在技术社区爆火的一个真实事件。
GitHub上一位24岁的工程师花4个小时写出了一个名“colleague.skill”(同事.skill)的开源项目。它的逻辑很简单:把你同事过往的飞书消息、钉钉文档、工作邮件、截图等“原材料”统统喂给AI,AI就会通过提示词工程进行所谓的“蒸馏”,提取他的工作方法、技术规范与沟通风格,生成一个能模仿其语气回答问题的AI插件。随后,“老板.skill”“前任.skill”“导师.skill”等衍生项目相继涌现,迅速形成一个庞大的“Skill宇宙”。
随着事件的发酵,一家游戏传媒公司也进行了落地实践:在征得同意后,将一位离职的人事专员训练成了AI数字分身,用于内部测试,处理咨询、邀约、制作PPT和表格等简易工作。
在这个人人都担心被AI替代的焦虑时代,这种“赛博永生”的噱头迅速破圈。但我必须提醒大家:别光顾着吃瓜玩梗,这个看似新潮的技术玩具,背后暗藏着巨大的法律风险与伦理危机。 今天,我们就从法律的角度,把这事说清楚。
一、“同意”的幻象:劳动合同解除后,数据使用权的真空
很多人,甚至包括一些大公司,都陷入了一个认知误区:认为员工在职期间产生的聊天记录、文档代码等数据,天然属于公司财产。这是一种极其危险的误解。
根据我国《个人信息保护法》的规定,处理个人信息需要满足几个法定条件之一,比如:取得个人的同意,或者为订立、履行合同所必需等。
那么问题来了:员工离职了,劳动合同已经解除,公司继续使用他工作期间的数据来“炼化”成数字人格,这属于哪一条呢? 答案是哪一条都不属于。
首先,绝大多数情况下,公司根本没有向离职员工重新索要过授权。其次,劳动关系已经终止,继续使用数据不再属于“履行合同所必需”。更重要的是,即便员工在职时签过某种笼统的数据使用协议,那份协议的“合理使用范围”也绝对覆盖不到离职后将其人格数据用于AI训练。未经员工同意收集、使用该类数据训练AI,直接侵犯其个人信息的收集、使用、加工权。
依据有关规定,训练数据涉及个人信息的,必须取得个人同意。而且,根据《个人信息保护法》,这种同意还必须由个人在充分知情的前提下自愿、明确作出。这意味着,那种在入职时半推半就签下的、连员工自己都没认真看过的所谓“知情同意书”,在法律效力上是存在严重瑕疵的。
二、不仅是信息泄露,这触动了“敏感信息”的红线
你以为仅仅是一般的个人信息泄露吗?事情远没有那么简单。
《个人信息保护法》专门定义了“敏感个人信息”,即一旦泄露或者非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害的个人信息,包括生物识别、医疗健康、金融账户、行踪轨迹等信息。
工作聊天记录里不仅有工作内容,还可能混杂着员工临时请假时透露的身体状况、提及的家庭困难、无意间暴露的财务困境,甚至是对其他同事的私下评价。这些内容一旦被爬虫全量抓取、放进大模型里反复“蒸馏”,后果不堪设想。
法律对敏感个人信息的保护极为严格。《个人信息保护法》明确规定:处理敏感个人信息应当取得个人的单独同意,甚至还需要取得书面同意。请注意,是“单独同意”,不是入职时签署的那份笼统的数据协议可以覆盖的。
而在这些“同事.skill”项目中,目前根本没有“单独同意”的环节。它们只是用脚本一股脑地把聊天记录爬取并转换成Markdown格式,再直接投喂给AI。这意味着,每一个被“炼化”出来的数字分身,都可能涉及对敏感个人信息的持续违规处理。
三、玩梗不能免罪:从侵犯人格权到触及刑事风险
有些公司可能会说,这只是内部测试用的“玩具”,我们没想牟利。但法律从来不相信“玩梗”的借口。
1. 侵犯人格权。 离职员工的名字、工作习惯、独特的表达方式甚至声音,属于其人格权的一部分。根据《民法典》的规定,对自然人声音的保护,参照适用肖像权保护的有关规定。如果公司未经许可,将离职员工的个人形象或声音制作成AI数字人并再次发布,就可能构成对肖像权和声音权益的侵害。
2. 刑事风险。 情节严重者,还可能涉嫌构成“侵犯公民个人信息罪”。《中华人民共和国刑法》规定:违反国家有关规定,向他人出售或者提供公民个人信息,以及窃取或者以其他方法非法获取公民个人信息,情节严重的,处三年以下有期徒刑或者拘役,并处或者单处罚金;情节特别严重的,处三年以上七年以下有期徒刑,并处罚金。
3. 商业秘密泄露。 即便公司能侥幸绕过个人信息保护的监管,那些在工作数据中被“蒸馏”出来的代码、设计方案、商业规划,也极有可能涉及公司的商业秘密。一旦AI分身对外提供服务或存在数据泄露漏洞,公司将面临巨大的商业风险。
四、打工人,你的权利清单与自救指南
如果你发现自己被前公司“炼化”成AI数字人还在打工,千万别觉得这只是“挺好玩的”或者“无可奈何”。法律赋予了你充分的维权武器。
1. 离职前,先做好数据“断舍离”。 在办理离职交接手续时,务必仔细检查即将签署的各项协议。凡是涉及“数据授权”“AI训练”“数字资产”等模糊字眼的条款,一定要问清楚、看明白。对于非必要的、笼统的数据授权条款,要勇敢地划掉或拒绝签署。
2. 发现被侵权,多渠道维权。 一旦发现前公司在未经你明确授权的情况下使用你的数据生成AI分身,你有权向相关部门投诉,要求公司立即删除数据并赔偿损失。根据我国劳动争议处理机制,劳动者应当自知道或者应当知道其权利被侵害之日起1年内,向有管辖权的劳动人事争议仲裁委员会申请仲裁;对仲裁裁决不服的,可以向人民法院提起诉讼。也就是说,你可以走“协商—调解—仲裁—诉讼”的完整维权路径。
3. 保持证据意识。 如果你怀疑自己可能被“炼化”,注意保存好与前公司相关的聊天记录、邮件往来、工作文档等原始证据。这些证据在仲裁或诉讼中至关重要。同时,可以尝试通过前同事了解公司是否确实在使用你的数字分身,并截图保存相关证据。
五、技术终究是技术,人性无可替代
我想最后再说点走心的话。
这个“同事.skill”项目,看似是一场技术狂欢,实则反映了当下社会普遍的焦虑。在AI狂飙突进的时代,我们害怕被替代,害怕经验贬值,害怕变成了冰冷的Token。但AI目前能干的只是一些重复性、流程化的事,而真人的判断力、创造力、临场应变、情感沟通、复杂决策,AI现在都学不会也做不到。
你的同事之所以是你的同事,不仅仅是因为他掌握了某种技能,更是因为他能在你遇到困难时与你共情,能在复杂的职场政治中凭直觉做出权衡,能在项目中迸发出出乎意料的灵感。这些藏在灵魂里的微光,是冷冰冰的Markdown文件永远也“蒸馏”不出来的。
技术的进步无法阻止,但利益的分配方式,是可以通过制度和法律来塑造的。面对AI的浪潮,法律正在努力跟上脚步。在技术创新的同时,个人数据权利的保护绝不会缺席。
把同事“炼化”成Skill,或许可以当作一个网络热梗一笑了之。但如果真有公司想把这变成现实,那就必须准备好面对法律的严惩。因为法律从来不只是冰冷的条文,它是守护每一个普通人的尊严、隐私与劳动价值的最坚实防线。
毕竟,我们打工是为了生活,而不是为了被“蒸馏”成一串Token,永远活在服务器里。
热门跟贴