凌晨两点,布莱恩·莱利在谷歌输入了六个字:"如何阻止杀人念头"。

他搜到的第一条结果,是让他"拨打自杀热线"。

打开网易新闻 查看精彩图片

搜索框里的求救信号

打开网易新闻 查看精彩图片

这不是某个陌生人的故事。2023年8月,这位两个孩子的父亲在佛罗里达州家中,用一把手枪结束了19岁女儿莱莉的生命,随后自杀

警方事后发现,布莱恩的搜索记录暴露了一切:他反复查询"杀人后自杀""如何快速杀人"等关键词。但算法没有识别出危险信号,也没有触发任何干预机制。

更讽刺的是,莱莉本人曾在社交媒体写道:"我父亲是我最好的朋友。"

平台的沉默与家庭的崩溃

案件细节显示,布莱恩长期患有未确诊的心理疾病。家人注意到他的异常,却未能阻止悲剧。

谷歌的搜索建议系统在此案中完全失效。当用户输入明确暴力意图时,系统仍按常规返回热线号码——仿佛一个想杀人的人,会冷静地拨打求助电话。

打开网易新闻 查看精彩图片

这不是技术故障,是设计盲区:现有机制假设求助者与施害者是分离的个体,却忽视了"想杀人的父亲"同时可能是"想自杀的病人"。

当算法读不懂人性

此案暴露了一个被长期忽视的产品命题:搜索引擎的"安全提示"是否适配真实危机场景?

布莱恩的案例并非孤例。数据显示,美国每年约1500起杀人后自杀案件,其中家庭内部占比极高。但现有平台干预逻辑,仍停留在"阻止用户伤害自己",而非"阻止用户伤害他人"。

技术团队需要重新评估:当搜索词同时包含"杀人"与"自杀"意图时,系统该如何响应?现有热线转介模式,是否对潜在施害者有效?

莱莉的故事没有反转。但每一次搜索记录被事后复盘,都是对活着的人提出的产品拷问。