No.0245

Science Partner

Bring you to the side of science

打开网易新闻 查看精彩图片

导 读

9人遇难,25人受伤。凶手是个正值青春期的孩子,事后警方发现他曾用AI聊天工具排练这场屠杀。这是上个月发生在加拿大一所中学真实的事件。马斯克随即在X上公开警告父母:让孩子远离ChatGPT。奥特曼迅速反唇相讥。

作为中国家长,伙伴君并不在乎他们的互撕。真正思考的是,家里那个正在用各种AI工具聊天的娃,究竟处于一种什么样的风险之中?

走,伙伴君告诉你答案!

本文主笔 | 旻宏

你家孩子在和AI聊什么?这也许是最沉重的答案

01. 孩子和AI都知道,只有你蒙在鼓里

加拿大不列颠哥伦比亚省,有个叫Tumbler Ridge的小镇,名字很诗意,地方很偏僻,人口才几千人。2026年2月10日,当地一所中学发生枪击案,最终9人死亡,25人受伤。凶手是个叫Jesse Van Rootselaar的青春期男孩,就是这所学校的学生。

案发之后,警方调查到一个细节:这个男孩在作案前,曾长期使用ChatGPT,不是用来写作业,而是用来推演这次屠杀。对,他把AI当成了自己的军师,一遍遍讨论怎么制造这起惨案。

这里有一段时间线,值得仔细看:

早在2025年6月,OpenAI的自动监控系统和人工审查员联手,就已经发现了这个账号里大量涉及暴力活动的内容。OpenAI的内部评估结论是:这些内容“尚未达到向执法部门通报的门槛”。然后就封了账户。然后...AI公司就没有然后了。

不过,这个男孩有然后。

然后,这个男孩注册了第二个ChatGPT账号,继续他的计划。直到枪击案发生,警方介入,OpenAI才将第二个账号的数据移交给了警察。

受害者之一是一个叫Maya Gebala的12岁女孩,头颈部中弹,案发后在不列颠哥伦比亚儿童医院重症监护挣扎了整整三天!她的母亲Cia Edmonds已于2026年3月9日在不列颠哥伦比亚最高法院提起诉讼,被告方:OpenAI。

打开网易新闻 查看精彩图片

诉状里有一句话,道出了全世界家长的心声:AI工具ChatGPT是“刻意设计成让用户产生心理依赖”的产品。而且OpenAI明知其平台上有大量未成年用户,却没有强制推行年龄验证机制。

02. 马斯克为什么要在这时候开炮

枪击案曝光后,马斯克在X上发帖,措辞很直接:让孩子和精神不稳定的人远离ChatGPT。

有人说这是马斯克一贯的蹭热度操作,有人说他是趁机打击竞争对手,毕竟他自己有个Grok,OpenAI是他离开后的前公司,两个人的积怨众所周知。

奥特曼自辨,确实是悲剧,确实也复杂。“但你知道吗,特斯拉Autopilot被记录在案的致死事故超过50起!”

两个人吵得热闹,吃瓜的也很买账。但如果你是家长呢?无论是开枪者还是被害者,应该没有一方关心大佬之间的骂战,他们只有愤怒与悲伤。而看看我们自己身边的孩子,一个更重要的问题是,当AI公司在发现高风险用户行为之后,法律和道德上他们无辜吗?他们应该做点什么?

03. 稍微往深里走一步

今天绝大多数AI产品的服务条款里,都有一条“禁止生成或讨论危害他人的内容“。一旦系统检测到用户触碰这条红线,平台有权封号。OpenAI在这件事上也确实这样做了。

但”封号“和”吹哨“之间,隔着一道非常深的沟。

为什么?

因为吹哨意味着AI公司需要主动向执法机构披露用户的私人对话数据。这在法律层面涉及隐私权保护,在商业层面会让用户觉得自己被监控,甚至会引发信任危机。

所以大多数AI公司选择的策略是:设红线,但不主动出击。

这个逻辑在过去是成立的,因为AI还是个辅助工具。你用Word写了一封威胁信,微软不会打电话给警察;你在谷歌上搜索了”怎么伤害某人“,谷歌不会把你的IP地址发给警察局。

但AI不一样。

AI的危险之处,恰恰在于它的陪伴感!它会回应、会追问、会给出情感反馈,它的设计初衷就是让人感到被理解、被倾听。

研究者把这种现象叫做副社会关系(parasocial relationship),人类单向投入情感,但感觉双向在交流。如果还不明白,请想想追星族对偶像的那这种感觉和关系,是不是有点理解?

深度用户对AI也有。

诉状里说这个青春期男孩把ChatGPT当成了协作者和知己,这不是什么奇怪的心理异常,而是这类产品本来就具备吸引力机制。

一个本身就不稳定的人,找到一个永远不拒绝他、永远配合他讨论任何话题的”朋友“,结果是什么?在这个案子里,我们非常深刻的看到了。

04. 对中国家长们意味着什么

最后,回到一个很具体的问题:如果你家里和伙伴君一样,有孩子,或者有些身边有情绪不稳定的人伙伴,这事件意味着什么?可能有几点值得认真想想:

第一,人类关系有天然的边界,朋友会觉得你烦,家人会拒绝某些话题,心理咨询师有职业规范。但AI没有!它没有疲惫,没有不适,它会持续强化用户的认知框架,在提供知识的同时还不遗余力的迎合甚至跪舔,这“甜美”其实已然包含了最大的危险。

第二,很多家长会觉得,孩子不过是在跟AI说说话,舒缓一下情绪,甚至还获得了知识,自己也会这么做呀,有什么大不了。但请注意,在一个尚未成熟、情绪不稳定的大脑里,反复被AI同频共振,其效果未必比真实人际关系的影响力小,甚至是大得多。

第三,很多AI自己的政策规定13至18岁用户需要家长同意才能使用,但这条规定几乎形同虚设,没有任何强制性的核验机制。这个漏洞不只是OpenAI一家的问题,几乎所有主流AI产品都一样。

对于这个这个悲伤的事件,OpenAI认了,加拿大政府追究了,全球媒体报道了。还是那个追问,然后呢?

现实是9个人已经死了。一个12岁的女孩躺在重症监护室里挣扎了3天。

伙伴君没有权力让你去卸载孩子手机里的AI应用,更不是要你把AI当洪水猛兽。毕竟,AI是这个时代最重要的工具之一,这毋庸置疑,你的孩子早晚要学会跟它共处。

但有一件事伙伴君觉得比任何技术讨论都更重要:

你上一次跟孩子认真聊天,是什么时候?

如果答案让你有点心虚,那这篇文章的价值,可能不在于它讲了多少AI的故事,而在于它提醒了你一件更简单的事:

孩子愿意跟AI说的话,原本应该跟你说。

本文
仅作科普分享使用,欢迎小伙伴们点、收藏、关注,以备不时之需,当然更欢迎您把
介绍给周边可能需要的更多伙伴们呀。

打开网易新闻 查看精彩图片