快速阅读:AI巨头们正陷入一种奇特的叙事:一边宣称自己的技术足以毁灭世界,一边又在拼命推销它。这种“末日营销”不仅在转移公众对环境、就业等现实问题的注意力,更是在通过制造不可控的恐惧,试图换取监管的豁免权与市场的独占地位。
有些事挺有意思。你很少听见麦当劳宣布:我们研发出了一种极其恐怖的汉堡,如果不加限制地售卖,可能会导致人类文明崩溃。但如果你盯着 OpenAI 或 Anthropic,你会发现这简直是他们的标准开场白。
他们把模型包装成某种带有神性的、不可名状的力量。这种叙事逻辑很巧妙:既然这东西可能毁灭世界,那它就不是普通的软件,而是一种需要“特许经营”的核武器。这实际上是在通过制造恐惧来完成一种变相的监管套利。如果只有他们这些“掌握禁忌知识”的专家才能安全地驾驭这种力量,那么其他人(比如开源社区)的参与,就自然成了某种危险的挑衅。
有网友提到,这种做法本质上是在把“风险”转化为“护城河”。
更深层的矛盾在于,当他们在谈论 AGI 可能带来的灭绝风险时,却对正在发生的、更具体的伤害保持沉默。比如数据中心的能源消耗、劳动力市场的剧烈动荡、以及算法对社会认知的侵蚀。把视线引向遥远的星际文明或机器人战争,能让人们暂时忽略脚下正在崩塌的现实。
这种“末日感”其实也是一种极其高效的融资手段。对于投资者来说,一个“可能毁灭世界”的产品,显然比一个“能帮你写代码”的工具要性感得多。
与其说他们在担心技术失控,不如说他们在担心失去对叙事的控制。
如果 AI 真的只是软件,它就必须接受像任何其他软件一样的审查、测试和问责。但如果它被神话成了某种“不可控的自然力量”,那么所有的工程失误、安全漏洞和伦理崩塌,都可以被轻描淡写地归结为“不可预见的风险”。
我们真的需要这种带有宗教色彩的恐惧吗?或者说,我们是在害怕技术,还是在害怕那些试图通过定义恐惧来统治我们的公司?
bbc.com/future/article/20260428-ai-companies-want-you-to-be-afraid-of-them
热门跟贴