今年3月,那个在直播间里怼天怼地、把高考志愿填报讲成单口相声的张雪峰,因为心源性猝死离开了。
消息传出后,无数家长和学生都在刷屏悼念。
可谁又能想到,在他去世后不到半个月,GitHub上就冒出了一个叫“张雪峰.skill”的开源项目。
开发者把他的五本著作、十五篇深度采访、三十多条经典语录和完整的人生时间线,一股脑地喂给了AI大模型,提炼出了“社会筛子论”“就业倒推法”等标志性的心智模型,并打包成了一个谁都能调用的智能体。
你随便问它一个高考志愿问题,它会先追问你家底如何,然后再用那种不留情面的语气给你一通分析,连停顿和反问的节奏都跟张雪峰生前一模一样。
比如:孩子560分,河南考生,想学金融怎么办。
你看,张雪峰的“赛博复活”,就这么成了。
从技术层面看,“赛博张雪峰”没有主观体验,没有意识连续性,不会疲惫,只是一套静态的认知快照。
它不是真正的生命,只是对张雪峰生前智慧的复刻和保存。
把它称为“数字永生”,更像是一种技术乐观主义的误读。
但不可否认,它让张雪峰的教育方法论以另一种形式延续,成为了可复用的知识工具,而这又让“永生”有了另一层意义——
不是复活逝者,而是让有价值的思想不被遗忘。
但是,“张雪峰.skill”项目也面临着至少三个问题:授权问题、伦理与法律边界的问题、被商业机构挪用的问题等。
人走了,数字分身还在工位上
张雪峰的“复活”不是个例。就在同一个时间段,另一件事也在社交媒体上炸开了锅。
山东一家游戏传媒公司,把一名离职员工的沟通风格、工作习惯、业务逻辑全部打包投喂给AI大模型后,生成了一个替他继续上班的数字分身。
据说这个分身能处理咨询、邀约、做PPT和表格,唯一的毛病是有点笨,只能应对简单的指令。
对此公司回应称,这事儿经过了当事人的同意,而当事人自己也觉得挺好玩。
●图源:微博
话说,这真的好玩吗?
想想那个画面。昨天还跟你一起在茶水间骂老板的人,今天就被浓缩成一段代码留在了公司的服务器里,永不疲倦、不要工资、不会摸鱼;
你发消息过去,对面是顶着他头像的数字分身,用着他的语气回复你,但你心里也清楚,他早就不在这栋楼里了。
●图源:小红书
诡异不诡异?
此外,GitHub上那个叫“同事.skill”的项目也在这个时候彻底爆了。
开发者用离职同事的飞书消息、钉钉文档、工作邮件当原料,让AI学会他的语气、逻辑,甚至可以知道他在什么情况下会甩锅。
短短几天时间,该项目狂揽几千颗星,评论区里“老板.skill”“前任.skill”等衍生版本也都冒了出来。
从公众人物到普通打工人,从直播间的金句到工位上的聊天记录,被“炼化”,正在从猎奇新闻变成某种行业趋势。
恐怖的不是技术,是那种“像”
有人可能要问,一个AI虚拟人,有什么好怕的?
确实,拆开来看,所谓的数字分身并不神秘。
它本质上就是一个遵循智能体标准的提示词加爬虫工程,相当于给演员一个剧本让他照着演。
它没有记忆,不懂深层逻辑,只能按预设路径输出内容,既不能“对齐颗粒度”,也不能“打通底层逻辑”,更别说替领导背锅了。
人们所恐惧的,倒不是这个东西有多厉害。
心理学上有个“恐怖谷”理论,说的是当一个存在物足够接近人类、却又在某些关键地方明显不是人类时,我们会本能地产生不适和违和。
数字分身,恰好踩在这条线上。
●图源:微博
它用同事的语气说话,用同事的逻辑回复,却又处处透着一股空洞。
它既是那个人,又不是那个人。它是离职同事留下的残影,是形似而神离的。
此外,还有一层更深的焦虑藏在下面。
我们一直默认人和工具之间有条清晰的边界。人就是人,工具就是工具。
但现在一个数字分身顶在了离职同事的工位上,如幽灵一般处理工作,人与工具之间的边界,就在这一刻开始变的模糊起来。
在发展下去,人们可能会分不清对话框那头到底是人,还是一段被训练好的代码了。
你的“人设”,还归你管吗
张雪峰被开源了,离职同事被“炼化”了。这看起来是两个维度的事,底层逻辑却一模一样。
人的经验、思维、表达方式,正在被当作原材料投喂给AI,转化成可以无限复制和调用的数字资产。
有人管这个过程叫“数据蒸馏”。
从一段段聊天记录、一封封邮件、一场场直播里,把一个人“蒸馏”出来。
留下的是模型,消失的是主体。
而那个真正提供数据的人,反而会被排除在价值分配之外。
●图源:微博
法律界人士已经指出了问题的严重性。
离职员工的聊天记录、工作邮件、个人工作习惯,属于《个人信息保护法》界定的个人信息,其中的私密沟通内容还可能构成敏感个人信息。
未经同意收集使用这些数据训练AI,属于直接侵犯个人信息权益。
●图源:微博
更微妙的是,就算当事人同意了,如果没有明确约定数字分身的使用期限、范围和退出机制,后续照样可能引发纠纷。
也就是说,笼统的同意不等于合法。
但法律问题还只是冰山一角。水面之下还有一个更让人不安的趋势。
在AI的价值链条里,设计算法的人定义规则,部署AI的企业收获效率,而真正用自己的经验和思维喂养AI的,往往是整个故事中没有名字的人。
被炼掉的到底是什么
数据显示,中国AI数字人市场规模预计到2026年将突破百亿。
技术本身当然值得期待,效率提升、成本降低、新的商业可能,这些都是真实存在的。
但效率之外,有些问题是绕不过去的。
当一个人的特性可以被轻松打包,变成企业永远不下班的数字资产,我们和企业的关系是否还停留在传统的雇佣关系里?
有网友在“炼化同事”的新闻下面留了一条评论:“以后上班多说脏话。”
这听起来像是个玩笑,细想却让人心酸。
当你意识到自己的一言一行都可能被蒸馏进企业的数据库,你能做的抵抗,竟然是故意让自己的数据变得“不干净”。
这本身就很说明问题了。
技术的逻辑从不满足于好玩。今天是一个人事专员的数字分身在处理简单指令,明天就可能是每一个离职者的经验被系统性地采集和复用。
而在“炼化”从网络热梗变成行业惯例之前,我们有必要问一句:
在算法的熔炉里,被炼掉的究竟是什么?
有一个概念,叫“监控资本主义”,说的是科技和社交媒体公司系统性地剥夺个人数据并据为己有。
这种监控极其不对等,一方能看到另一方,而另一方却看不到对方。
在今天的职场里,同样的不对等正在上演。你可能会被拆解成可以复用的模块,而你对这一切的掌控权正在无声的流失。
数字永生,听起来很酷。
但不管是“同事被炼化”,还是“张雪峰赛博复活”,所引发的AI时代的集体焦虑已经蔓延开来。
如何成为用AI的人,而不是被AI替代的人,正在成为新的社会议题。
*编排 | 黄家俊 审核 | 黄家俊
行业资讯、案例资料、运营干货,精彩不停
2000万品牌经理人内参!
聚焦头部与标杆,助力品牌高端化。
品牌专访微信:jiangnan254(备注:专访)
百万品牌经理人都在看