Elon Musk在X上发了一条警告:“不要让你爱的人使用ChatGPT。”
Sam Altman的回应相当犀利:你一会儿抱怨ChatGPT限制太多,一会儿又说它太宽松。近十亿人在使用这个产品,其中一些人确实处于脆弱的心理状态。我们会继续努力把这件事做好,我们深感责任重大,但这些都是复杂的悲剧性情况,值得被认真对待。
然后Altman话锋一转:特斯拉Autopilot已经导致超过50人死亡,我唯一一次坐过使用它的车,第一反应就是这东西远没有安全到可以发布的程度。Grok的一些决策我就不提了。你把“每一个指控都是一种自白”演绎得淋漓尽致。
这场隔空对战引发了大量讨论。
有人一针见血:Musk对竞争对手要求的安全标准,远高于他对自己的要求。他的公开发言从来不是出于善意,只是服务于当下最想推进的议程。
关于AI安全责任的归属,社区出现了有意思的分歧。一派认为,当人们用刀或绳子伤害自己时,我们通常责怪个人而非工具。ChatGPT是工具,不应为用户的故意滥用承担责任。另一派则指出,如果足够多的人以有害方式使用某个产品,即使产品本身并非为此设计,也值得考虑改进。
有人提供了一个冷静的数据视角:9例死亡相对于数亿用户,这个比例比几乎任何其他技术都安全。汽车、烤面包机、自动售货机,哪个不是如此?2023年仅上吊自杀就有4万例,我们并没有因此要求绳子变得更脆弱。
但也有人分享了令人担忧的观察:我认识两个人,之前没有任何精神疾病史,现在却深陷AI诱发的妄想症。当4o短暂下线时他们完全崩溃,现在又回去让AI告诉他们自己有多正确,别人都在针对他们,只有他们知道真相。
更深层的问题被提出:这真的是AI的问题,还是美国心理健康系统长期失灵的问题?精神不稳定的人一直存在,他们总会找到出口。与其贴创可贴,不如直面根本原因。
有人试图跳出这场争论:两个亿万富翁在比谁的产品杀的人更多,这就是我们这个星球的日常。他们自作主张创造了一个我们从未投票同意的未来,现在还要我们参与他们的猫狗大战。
一个务实的建议浮出水面:OpenAI应该为有心理健康问题的用户设置“治疗模式”,这是一小部分用户,不应该为了他们而扭曲整个产品线影响其他人的体验。
这场争论的本质或许是:当一项技术足够强大、用户足够多时,它必然会触及人性中最脆弱的部分。问题从来不是“谁更坏”,而是我们如何在创新与保护之间找到那条细细的线。
reddit.com/r/OpenAI/comments/1qibzok/sam_altman_on_elon_musks_warning_about_chatgpt
热门跟贴