当AI承担人类更多的工作职能,不仅意味着现代职场规则被改写,更是对伦理和法律的考验。而不管打工人如何自救,恐怕都很难抵挡这股浪潮。
文 | 布丁
设想一下这个场景——你的同事离职了,但他被训练成了AI,还在继续上班,和你对接工作。你会作何感想?
这一看上去相当科幻的场景,正在现实中上演。据大河报,山东一游戏传媒公司将离职员工训练成AI继续工作,近日引发关注。该公司员工告诉媒体记者,同事是真离职了,把他训练成AI经过他同意,他本人也觉得挺好玩的。
从网传图片看,该离职员工的AI分身自称,“我是已经离职员工XX的数字分身,你可以随时向我提问,我会根据我在职期间的文档对你回复,并回答你的问题。”
不过,这位AI员工目前只能做咨询、邀约、制作PPT和表格等简单工作,现在只是内部测试,还没对外开放,因为它“有点笨”。
在AI快速发展的当下,这则新闻给很多人带来了巨大的心灵冲击。前两天还是一个活生生的人,在和你聊天对接工作,过两天就成了一个没有情感的AI,继续和你一起工作,听起来就像“鬼故事”一样惊悚。
把离职同事训练成AI,并非最近才有的新鲜事。前段时间,有人在全球知名开源网站GitHub上发现了一个名为“colleague-skill” 的开源项目,意在通过整合离职员工留下的数据,投喂给AI,以训练成可以承接部分工作的数字分身。
有网友分享真实案例称,前同事离职后,公司把他的全部工作文档和聊天记录投喂给AI,生成了他的数字分身,以该离职员工的语气口吻和工作习惯继续工作,甚至还会主动给在职员工发送工作信息。
这跟上文某游戏公司的案例,本质是一样的。据参与该开源项目的开发人员介绍,AI数字分身并非简单地复制粘贴,而是通过深度学习构建的动态交互系统。
有科技公司参与测试的员工表示,在特定业务场景下,数字分身的响应准确率达到78%。
除了将离职员工训练成AI分身,现在不少公司都鼓励打工人将自己的心得蒸馏成Skill。
具体而言,就是将自己在工作中积累的经验、方法、决策逻辑,按照 Skill 的标准格式进行编写和封装,使其成为 AI 可以理解并执行的说明书。
这样就不需要人在对话框里一遍遍重复提要求,因为AI能自行读取经验,并转化成行动。当它从一个会聊天的机器人,变成了能处理综合问题的智能体,就能降低对人的依赖,就算有人离职,新人也能快速上手。
对此,评价呈两极分化。支持者认为,它能有效解决某些员工离职后导致项目停滞的难题,让知识资产真正实现了“数字化留存”。
反对者则表示,这会让某些企业招人更少,令本就严峻的就业形势雪上加霜。
以前很多人以为,AI数字人只能处理相对简单机械的工作, 即便响应准确率在提高,但也只能解决一些简单的问题,不能像真正的人一样,解决所有问题。
然而,随着AI技术不断迭代升级,人的价值确实进一步被稀释。不过,要说AI很快会取代人类,也不现实。
Skill目前只能记录重复出现的、标准化的判断模式和工作流,那种高度依赖现场环境和个人创造力、需要凭直觉判断的情形,它很难精准应对。
但AI智能体和数字分身所带来的伦理和法律问题,已经很棘手。当AI分身能够持续参与工作交流,真实的人际关系边界是否会被重新定义?过度依赖AI会不会削弱团队的情感联结?
AI提取的是过去的经验,如果过度依赖AI,团队是不是还有动力去创新,去探索不同的可能性?
法律层面,离职员工的聊天记录和工作档案等,属于《个人信息保护法》界定的个人信息。
2023年颁发的《生成式AI服务管理暂行办法》也规定,训练数据涉及个人信息,必须取得个人同意。违规收集离职员工的信息并训练AI,怎么看都是侵权的。
现实中,已有侵权被判赔偿并道歉的案例出现。去年8月,杭州一公司在未获完整授权、付费的情况下,将前员工的声音经AI训练后用于虚拟角色配音,被法院判决侵权,须赔偿该员工经济损失2万元,并出具书面道歉。
具体到开头提到的案例,该名离职员工表示同意把他训练成AI,但他只是口头表示同意,还是有书面授权书?毕竟一旦后续产生法律纠纷,“同意”的过程和性质很关键。
而且,目前训练AI还处于早期阶段,他可能并不清楚其中的利害关系,哪天他后悔了不想让公司用了咋办?
偷偷抓取员工的工作信息,涉嫌违规,那员工将自己的工作经验和决策习惯蒸馏成Skill,公司是不是可以一直无偿使用?
这个技能包里,哪些属于公司的职务成果,哪些属于个人受保护的数字资产?这些都是法律层面亟待探索的问题。
未经同意,直接复刻离职员工的数字分身,因为法律红线在那,公司很难大规模地开展。但将员工个人经验留存,投喂给AI,变成公司资产,日渐成为一种常规操作。
当AI承担人类更多的工作职能,不仅意味着现代职场规则被改写,更是对伦理和法律的考验。而不管打工人如何自救,恐怕都很难抵挡这股浪潮。
热门跟贴