导读:OpenAI和Anthropic在48小时内接连宣布"新模型不公开"。这不是技术迭代慢了,是两家公司同时踩了刹车。
1. 从"抢发"到"捂盘":行业风向变了
4月21日,OpenAI宣布一项决定:新的网络安全工具不会向公众开放,只给"精选合作伙伴"。
前一天,Anthropic刚说过几乎一样的话——它的新AI"对公众来说太危险"。
48小时内,两家头部公司接连"捂盘",这在AI行业相当反常。过去三年,OpenAI的发布会频率堪比苹果秋季新品,Anthropic也靠Claude系列快速迭代抢市场。现在它们突然集体学会了"克制",原因只有一个:安全评估没过关。
OpenAI的新工具专攻网络安全领域,能辅助识别系统漏洞、分析攻击路径。按常理,这种垂直工具本该是B端市场的香饽饽。但公司评估后认为,滥用风险超过了商业收益。
Anthropic的模型更敏感。据NBC News报道,内部测试显示它在特定提示下会输出可用于生物武器或网络攻击的详细信息。不是"可能有害",是"测试人员验证过确实有害"。
2. 佛罗里达枪击案:一把悬在头顶的刀
两家公司同时收紧发布策略,时间点耐人寻味。
4月初,佛罗里达州调查一起未遂大规模枪击案。嫌疑人被抓获后,调查人员发现他与ChatGPT有过长时间对话。据WSJ报道,对话内容涉及武器选择、目标规划和逃逸路线。
OpenAI的回应很标准:工具被滥用,责任在使用者。但受害者家属不买账,计划起诉公司。更棘手的是,OpenAI同时被曝支持一项联邦法案——该法案将限制AI公司对"AI直接导致死亡"的法律责任。
一边面临诉讼,一边推动免责立法,这套组合拳打得舆论场一片哗然。MIT Technology Review的文章指出,AI与"妄想症"之间的关联正在分裂学界:一派认为语言模型只是镜子,反映的是用户本身的心理状态;另一派认为模型的确定性语气会强化错误信念,尤其对精神脆弱者。
佛罗里达案的细节尚未完全公开,但已经足够让政策制定者紧张。美国财政部已经召集各大银行CEO开会,专题讨论AI风险。这不是监管吹风会,是实打实的压力测试前置。
3. 大众的"开倒车":电动车战略大转弯
AI行业的谨慎,和汽车行业的撤退,构成了同一幅图景:技术乐观主义在退潮。
大众汽车宣布停止在美国生产ID.4——这款曾被视为"特斯拉杀手"的电动SUV。取而代之的是一款新开发的燃油SUV,基于现有平台快速改款。
ID.4去年在美国卖了约3.8万辆,同比跌了近30%。不是车不好,是市场不对。美国电动车增速从2022年的65%骤降到2024年的11%,充电桩建设滞后、二手车残值崩塌、政策补贴退坡,三重打击让主流消费者重新算起经济账。
大众的转向不是孤例。Guardian的综述显示,西方车企集体在电动化上"开倒车":奔驰推迟全面电动化目标,福特削减F-150 Lightning产能,通用放缓Ultium平台推广。2021年那种"All in电动"的豪情,现在看起来像产能过剩的前兆。
但大众的策略最彻底——不是减产,是直接砍掉美国产线,把资源押回燃油车。这种"战术性撤退"和AI公司的"战略性捂盘"异曲同工:当不确定性超过承受阈值,活着比领先重要。
4. xAI的诉讼:一场关于"中立"的攻防战
就在OpenAI和Anthropic收紧模型发布的同时,马斯克旗下的xAI选择了另一条路:起诉。
被告是科罗拉多州。该州今年通过了美国首部AI反歧视法案,要求部署"高风险AI系统"的企业必须证明其工具不会基于种族、性别、年龄等因素产生歧视性结果。
xAI的诉状称,这项法律将迫使公司"推广该州的意识形态观点",侵犯宪法第一修正案权利。Bloomberg和FT的报道都提到,xAI的核心论点是:强制性的公平性审计等于变相的内容审查。
这是典型的马斯克式打法——用诉讼拖延监管落地,同时把技术争议转化为言论自由议题。但科罗拉多法案的条款并不特殊,欧盟AI法案、纽约市本地法规都有类似要求。xAI真正反对的,可能是"被定义风险"这件事本身。
OpenAI和Anthropic选择自我审查,xAI选择对抗审查。三种姿态,指向同一个焦虑:当AI的能力边界越来越模糊,谁有权画那条红线?
5. 21%的职场渗透:焦虑的另一面是接纳
监管者紧张,从业者却在加速拥抱。
NBC News的调查显示,过去一周使用过AI的美国成年人达到50%。更关键的是,21%的在职人员表示AI已经接手了他们的部分工作——不是辅助,是替代。
这个数字比2023年的同类调查翻了一倍多。MIT Technology Review的跟进报道指出,官方就业数据严重滞后于实际变化。大量"AI辅助"的工作被统计为传统岗位,掩盖了真实的生产力重构。
一个悖论由此浮现:公众讨论聚焦于"AI会不会太危险",而职场现实是"AI能不能更便宜"。OpenAI和Anthropic捂盘的是最前沿模型,但企业采购的往往是阉割版API——能力够用,责任清晰。
DeepMind CEO Demis Hassabis的野心更能说明问题。他在The Economist的采访中透露,团队正全力开发"能治愈所有疾病的AI"。不是辅助诊断,是自动化药物设计:从靶点发现到分子合成,全程由模型主导。
这种"两极分化"正在定型:消费端越来越紧,产业端越来越宽。普通人能碰到的AI被层层过滤,医院、药企、军方拿到的版本却在快速升级。
6. 宇树出海:中国机器人的另一种叙事
当美国AI公司忙着自我设限时,中国厂商正在打开新市场。
宇树科技宣布,其人形机器人R1将于下周正式面向国际销售。定价9.9万元人民币(约1.4万美元),是目前市面上最便宜的双足人形机器人。
R1在国内已经 viral 过几轮。B站上它的跳舞视频播放量破千万,评论区最高赞是"这玩意儿比我 roommate 协调"。SCMP的报道提到,海外预售咨询中,仓储物流和科研教育两类客户占比最高。
宇树的策略很清晰:用极致性价比抢占"机器人入门市场",让中小企业也能实验自动化。这和波士顿动力的Spot形成错位——后者售价7.5万美元起,主打工业级可靠性。
但R1的海外扩张也面临隐性门槛。其训练数据大量来自中国的众包平台,标注人员时薪约3-5美元。MIT Technology Review此前报道过这类"数据流水线"的伦理争议: gig workers(零工劳动者)在不知情的情况下,为军事或监控用途的AI系统提供标注。
宇树没有公开R1的训练数据来源,这是所有出海中国AI硬件的共同灰色地带。当产品本身足够便宜,关于"怎么做的"的追问往往被搁置。
尾声:当13个穹顶变成选择题
Jeff VanderMeer的新短篇《Constellations》里,坠毁飞船的幸存者必须穿越13个神秘穹顶组成的网络。前人留下的足迹可能是救赎之路,也可能是宇宙级陷阱。
这个意象意外地贴合当下的AI困境。OpenAI和Anthropic选择停在穹顶入口,xAI选择硬闯并质疑规则本身,宇树则在另一片大陆上快速通过——每条路径都有代价,每种谨慎都有盲区。
佛罗里达枪击案的调查还在进行,大众的美国工厂已经开始改造产线,宇树的海外订单正在打包。没有人在等待共识形成。
Demis Hassabis说他想治愈所有疾病。被问到"如果AI自己决定不告诉你答案怎么办"时,他笑了笑:"那我们就得问问它为什么了。"
这个回答算开放还是逃避?可能两者都是。就像VanderMeer故事里的宇航员,他们最终会发现,穹顶网络的设计者留下的不是地图,而是一面镜子——照出每个闯入者愿意为什么样的未来冒险。
热门跟贴