打开网易新闻 查看精彩图片

2月的一个周二,旧金山Mox联合办公空间里,几十个人脱了鞋盘腿坐下。动物保护人士和AI研究员混在一起,讨论一个听起来像科幻小说的命题:如果通用人工智能(AGI,Artificial General Intelligence)真的来了,它能不能终结动物苦难?

这场聚会真正的潜台词藏在 funding(资金)这个词里。与会者押注一笔大钱即将涌入动物保护领域——不是来自某个富豪的个人捐赠,而是AI实验室员工们的集体选择。

更激进的讨论在边缘游走:AI本身可能发展出感知痛苦的能力,那将是一场道德灾难。这个想法正在从小众圈子向外扩散,争议也随之升温。

同一天,华盛顿和硅谷接连扔出几枚政策炸弹。白宫发布了AI政策蓝图,特朗普要求国会将其写入法律,同时阻止各州自行限制AI。OpenAI宣布给所有美国免费用户看广告。马斯克在Twitter收购案的欺诈诉讼中被陪审团认定有责,但部分指控被豁免。

这些事件共享一条暗线:AGI的逼近正在重塑权力、金钱和伦理的分配方式。理解这条线,需要回到几个关键人物的决策现场。

一、动物保护人士的"技术乐观主义"赌局

一、动物保护人士的"技术乐观主义"赌局

Mox聚会的发起者是一群长期被边缘化的倡导者。他们的核心计算很简单:如果AGI能在几年内实现,人类解决复杂伦理问题的能力将指数级提升。

具体路径有两条。一是用定制智能体(Agent,自主执行任务的AI程序)放大倡导工作的效率——自动生成政策分析、预测立法走向、优化资源投放。二是用AI工具加速培养肉(Cultured Meat)的工业化,从实验室走向超市货架。

资金来源的转向更具信号意义。传统上,动物保护慈善依赖少数富豪的良心发现。现在,OpenAI、Anthropic等实验室的员工正在形成新的捐赠池。他们的逻辑是:如果自己的工作可能加速AGI到来,那么提前把一部分收益导向减少痛苦,是一种对冲。

这种"技术乐观主义"有其历史参照。有效利他主义(Effective Altruism)运动在2010年代后期曾推动大量资金流入AI安全研究,部分原因就是担心AGI的失控风险。动物保护群体正在借用同一套叙事框架,只是把关注点从"人类灭绝"转向了"跨物种痛苦"。

争议在于第二条路径:AI是否可能具备道德地位?一些神经科学家和哲学家认为,未来的AI系统如果具备足够的认知整合和情感表征能力,其"受苦"就不应被简单忽视。反对者则指出,这混淆了功能模拟与主观体验,可能分散对现实中数十亿养殖动物的实际关注。

争论尚无定论,但资金已经开始流动。据与会者透露,至少两个大型基金会正在评估相关的资助申请。

二、白宫的"轻触式"监管框架

二、白宫的"轻触式"监管框架

特朗普政府的AI政策蓝图,核心可以概括为一句话:联邦层面定底线,各州不许加码。

文件要求国会将现有的自愿性框架(以NIST AI风险管理框架为基础)转化为法律,同时明确禁止州政府制定更严格的AI限制。这一设计的直接目标是消除合规碎片化——企业不必面对50套不同的州级规则。

但"轻触"不等于无触。蓝图保留了联邦机构对特定领域的执法权,尤其是涉及国家安全、关键基础设施和消费者权益的场景。特朗普还单独提出,要审查现有AI出口管制,确保不损害美国企业的全球竞争力。

政治背景比政策文本更值得玩味。MAGA阵营内部已经出现对大型科技公司的反弹,部分声音将AI视为"觉醒主义"(Wokeism)的技术载体。蓝图试图在"促进创新"和"回应基层焦虑"之间走钢丝,但两边都不满意。

各州的反应将是下一步关键。加利福尼亚州和纽约州已经酝酿自己的AI监管立法,若联邦禁令成真,势必引发宪法层面的诉讼。一场关于监管权的战争正在酝酿。

三、马斯克的双重战场:法庭与晶圆厂

三、马斯克的双重战场:法庭与晶圆厂

同一周内,马斯克在两条战线上同时承压。

旧金山的陪审团裁定,他在2022年Twitter收购案中误导了投资者,构成证券欺诈。具体而言,马斯克在交易完成前发布的多条推文——包括声称"交易搁置" pending details on spam accounts——被认定具有误导性,导致部分股东在错误信息基础上做出交易决策。

但陪审团同时豁免了部分更严重的欺诈指控,包括关于融资承诺的虚假陈述。最终赔偿金额尚未确定,但法律分析师估计可能在数亿美元级别。对于440亿美元的收购案而言,这更像是一个象征性打击,而非财务重创。

真正的资源争夺战在奥斯汀展开。马斯克计划建造史上最大的芯片工厂,由特斯拉和SpaceX联合运营。选址德州而非加州,延续了马斯克近年来的地理迁徙——税收优惠、监管友好、政治氛围,都是考量因素。

这个项目的战略意图很明确:减少对英伟达(NVIDIA)的依赖,为自动驾驶、机器人和星舰项目定制算力。但时间表极为激进,业内普遍认为2026年前量产的可能性极低。

两条战线的共同点在于"叙事控制"的失效。法庭上,马斯克的"即兴沟通风格"被证据链条拆解为可追责的陈述;产业层面,他的"快速迭代"神话正面临半导体制造业的物理规律——光刻机的交付周期不以人的意志为转移。

四、OpenAI的广告化转身与自动化野心

ChatGPT免费版即将向全部美国用户展示广告,这个消息的冲击力被其他头条稀释了,但长期影响可能更为深远。

OpenAI的财务压力是公开的秘密。训练GPT-4级别的模型需要数亿美元级别的计算支出,而推理成本(用户每次提问的边际成本)随着用户规模线性增长。订阅收入(ChatGPT Plus每月20美元)覆盖不了烧钱速度,微软的130亿美元投资附带严格的使用条款。

广告是互联网的经典解药,但插入对话式AI的场景远比搜索复杂。OpenAI需要解决几个产品设计难题:广告如何不破坏对话流畅性?用户数据如何用于定向而不触发隐私反弹?品牌安全如何保障——毕竟AI可能生成任何内容?

更激进的动作在后台推进。OpenAI正在建设"完全自动化的研究员"(Fully Automated Researcher),目标是用AI替代人类研究员的大部分工作。这与近期发布的"深度研究"(Deep Research)功能不同——后者是辅助工具,前者是替代方案。

人员扩张同步进行。OpenAI计划短期内将员工数量翻倍,招聘重点在工程和研究岗位。这一节奏与行业内的"效率年"(Year of Efficiency)形成反差——Meta、谷歌都在压缩 headcount(员工总数),OpenAI仍在激进扩张。

广告、自动化、扩招,三条线指向同一个判断:OpenAI认为窗口期有限,必须在竞争对手(尤其是开源模型和大型科技公司的内部项目)追赶上来之前,建立可持续的商业模式和技术壁垒。

五、军事AI的锁定与扩散

五、军事AI的锁定与扩散

五角大楼选择Palantir作为核心军事AI系统,这个决定的技术细节被低估,政治含义被高估。

具体而言,美国国防部将采用Palantir的Maven智能系统作为"联合全域指挥控制"(JADC2,Joint All-Domain Command and Control)的技术骨干。这套系统的功能是整合卫星、雷达、无人机等传感器数据,实时生成打击建议,缩短"从发现到摧毁"的决策链条。

Palantir的优势在于数据整合能力而非算法原创性。其核心技术是本体论映射(Ontology Mapping)——将不同来源、不同格式的数据统一为可查询的知识图谱。这在军事场景下价值极高:陆军的目标数据、海军的雷达信号、空军的无人机视频,可以被快速关联。

长期合同的锁定效应值得注意。军事系统的替换周期通常以十年计,Palantir此次获得的地位意味着未来数代武器平台都将围绕其架构设计。这对于竞争对手(包括Anduril等国防科技新贵)是一个结构性障碍。

国际维度同步展开。Palantir获得了访问英国金融监管敏感数据的权限,用于反洗钱和欺诈检测。这种"军民数据双轨"模式——用商业合同积累的数据能力反哺军事产品——正在成为全球AI企业的标准策略。

伊朗冲突成为技术试验场。近期的一系列无人机和导弹交锋中,AI辅助的目标识别和轨迹预测系统被密集使用。观察者注意到,冲突的"戏剧性"在上升——双方都在展示技术能力,而非追求决定性战果。AI将战争转化为可编排的景观,这一趋势可能比任何具体武器更值得警惕。

六、中国超级应用的Agent化实验

六、中国超级应用的Agent化实验

腾讯将OpenClaw Agent接入微信,这个更新在英文世界几乎没有讨论,但可能是消费级AI应用的重要节点。

OpenClaw是一个开源的计算机控制Agent,能够理解自然语言指令并操作图形界面。接入微信后,用户可以通过对话让AI控制PC——打开软件、填写表格、整理文件,甚至跨应用执行复杂任务。

微信的月活用户超过13亿。即使只有极小比例尝试这一功能,其数据反馈也将迅速优化模型表现。更重要的是使用场景的丰富性:微信集成了支付、社交、政务、电商,Agent在这些场景中的行为数据,是训练下一代模型的稀缺资源。

这一布局与字节跳动、阿里巴巴的同类项目形成竞争。中国科技公司的共同假设是:Agent的决胜点不在于底层模型能力,而在于场景渗透深度和用户习惯培养。微信的社交链和支付闭环,提供了最肥沃的试验田。

监管环境是变量。中国对生成式AI的内容审核要求严格,Agent的自主操作能力可能触发新的合规审查。腾讯的应对策略是将敏感操作保留在人类确认环节,但这会牺牲部分用户体验。

Reddit的身份验证实验则走向另一个方向。平台正在考虑引入Face ID或Touch ID级别的生物识别,以区分人类用户和自动化账号。这与马斯克收购Twitter后的"付费验证"思路不同——Reddit不打算收费,而是试图用技术门槛提高bot(机器人账号)的运营成本。

两个案例的共性:平台正在从"内容审核"转向"身份基础设施"。当AI生成内容泛滥,验证"谁在说"比判断"说了什么"更优先。

七、技术扩散的末梢:从寻宠到加密

七、技术扩散的末梢:从寻宠到加密

AI应用的长尾正在触及意想不到的场景。

美国多地出现"AI寻宠"服务。用户上传宠物照片,系统在收容所、社交媒体、监控视频的数据库中匹配相似图像。成功率数据参差不齐,但需求真实存在——美国每年约有1000万只宠物走失,传统寻回率低于20%。

这个场景的技术门槛不高,核心是数据整合和匹配算法。但其商业模式暗示了AI服务的未来形态:垂直场景、按需付费、结果导向。不需要订阅全能型助手,只为特定问题购买特定能力。

加密货币领域的新规则则展示了政策的技术细节如何重塑权力格局。特朗普政府提出的证券定义收窄,将大量代币排除在SEC(美国证券交易委员会)管辖之外。分析指出,这一变化对特朗普家族自身的加密项目(World Liberty Financial)构成直接利好。

政策制定的"自我交易"嫌疑引发批评,但更深层的问题是:当技术监管与特定利益集团的商业计划高度重合,公共政策的正当性基础如何维护?

这两个案例——寻宠服务和加密规则——位于技术光谱的两极。一个解决具体的、温情的生活问题;另一个涉及抽象的、高风险的金融工程。但它们共享同一种动态:技术能力的扩散速度,远超社会协商其使用边界的能力。

回到Mox办公空间的那场聚会。动物保护倡导者的AGI赌局,本质上是在这种动态中寻找杠杆:如果技术变革不可避免,至少把一部分资源导向减少痛苦。这个逻辑的诚实之处在于承认无力阻止潮流,但其风险在于,对技术能力的过度信任可能重复历史——20世纪的工业化农业也曾承诺"用科学终结饥饿"。

数据收束:OpenAI的1亿美国免费用户即将看到首批广告,这是其商业化路径的关键测试;马斯克440亿收购案中的欺诈责任认定,为社交媒体时代的投资者保护树立了先例;五角大楼与Palantir的长期合同,锁定了未来十年军事AI的基础架构。三个数字,三种锁定——用户注意力、法律责任、国家安全——勾勒出AGI前夜的技术权力版图。