打开网易新闻 查看精彩图片

Moderna的癌症疗法在临床试验中表现亮眼,但公司选择了一个奇怪的策略:拒绝叫它"疫苗"。这种命名游戏背后,是2024年疫苗信任危机的余波,也是一场关于语言如何塑造公众认知的实验。

与此同时,OpenAI首席执行官Sam Altman的住所连续遭遇枪击和燃烧瓶袭击。两起事件相隔48小时,嫌疑人留下警告AI将终结人类的手稿。技术乐观主义与生存恐惧的冲突,正在从线上辩论蔓延到现实世界。

癌症疫苗的" rebranding "困境

Moderna与默沙东(Merck)联合开发的mRNA疗法,在黑色素瘤患者中将复发或死亡风险降低了44%。这个数字来自2023年12月公布的中期试验数据,是癌症免疫治疗领域近年来最显著的突破之一。

但默沙东的发言人打断采访纠正措辞:「这不是疫苗,这是个体化新抗原疗法。」

技术上,它确实是疫苗。与传统预防性疫苗不同,这种疗法属于治疗性疫苗——通过训练免疫系统识别患者肿瘤特有的突变蛋白,启动针对性攻击。Moderna的mRNA平台正是2020年新冠疫苗的核心技术,原理高度一致。

rebranding 的动机很现实。皮尤研究中心2023年调查显示,美国成年人对疫苗的信心出现党派分化,部分群体对"mRNA"和"疫苗"等词汇产生条件反射式抵触。Moderna的股价曾在新冠疫苗需求骤降后暴跌70%,公司急需新业务线重获投资者青睐,不愿被政治化的语义战场波及。

但命名策略引发科学传播界的争议。约翰霍普金斯大学疫苗研究员Anna Durbin指出:「改变术语可能让公众更困惑。如果它 walks like a duck and quacks like a duck,我们就应该叫它鸭子。」

默沙东的选择是风险计算的结果。其Keytruda(可瑞达)已是全球最畅销的抗癌药物之一,2023年销售额超过250亿美元。将新疗法与"疫苗"概念切割,可以保护现有产品线的商业叙事,避免卷入文化战争。

Altman遇袭:技术精英的安全焦虑

Altman遇袭:技术精英的安全焦虑

2月16日周日,一名司机向Altman位于旧金山的住宅开枪。两天前的周五,同一地址被投掷燃烧瓶。旧金山警方确认两起事件关联同一嫌疑人,后者已被逮捕。

嫌疑人的网络足迹显示,他撰写多篇文章阐述"AI将导致人类灭绝"的观点,并提及OpenAI的GPT系列模型。这种技术恐惧与暴力行动的连接,标志着AI批评的某种升级。

Altman并非唯一面临人身威胁的科技领袖。2023年,谷歌DeepMind首席执行官Demis Hassabis和Anthropic联合创始人Dario Amodei均报告过针对性的骚扰事件。但48小时内连续两次袭击住宅,在硅谷历史上仍属罕见。

袭击时机耐人寻味。2月初,OpenAI发布视频生成模型Sora,引发新一轮关于AI能力跃进的公共讨论。Altman在X平台上主动征集用户生成视频提示词,并亲自回复展示结果——这种高调互动与其个人安全风险的上升形成张力。

旧金山标准报(SF Standard)援引邻居说法,Altman住宅近年已安装明显升级的安保设施,包括围栏和监控设备。这些预防性投入未能阻止袭击发生,反映出针对个人的物理安全防护的固有局限。

技术批评的暴力化转向,正在重塑科技领袖的风险评估模型。

决策神经科学:自由意志的实验室战争

决策神经科学:自由意志的实验室战争

在Chapman大学,Uri Maoz的实验室用另一种方式介入关于人类未来的辩论。他的研究对象不是AI系统,而是人类大脑如何产生"选择"的主观体验。

Maoz的学术起点颇具戏剧性。二十出头时,他读到本杰明·利贝特(Benjamin Libet)1983年的经典实验:大脑运动皮层在受试者"决定"弯曲手指前200毫秒就已激活。这个发现被部分解读为"自由意志是幻觉"的神经科学证据。

「读完那篇文章后,我意识到这个问题没有回头路。」Maoz回忆。如果决策动作先于意识觉知,那么"我"在决策中扮演什么角色?

过去二十年,Maoz团队开发了更精细的实验范式。他们让受试者在功能性磁共振成像(fMRI)设备中做复杂道德决策,同时用机器学习解码神经信号。关键发现:大脑在"意识到"决策前数秒,就已进入特定决策状态的神经轨迹。

但这不等于决定论。Maoz区分"决策预测"与"决策因果"——神经信号可以提前预示选择倾向,但干预这些信号能否改变选择,才是自由意志的核心问题。2022年,他的团队首次证明:经颅磁刺激(TMS)特定脑区,确实能影响受试者在道德困境中的选择方向。

这项研究的技术伦理含义尚未充分讨论。如果神经干预可以改变道德判断,司法系统如何对待"增强"或"损害"决策能力的被告?Maoz与法律学者合作的项目正在探索这些边界案例。

神经科学正在从描述"大脑如何工作"转向操作"大脑能被如何修改",这个转变的速度超过了配套伦理框架的建设。

军事AI:分类数据训练的新边疆

军事AI:分类数据训练的新边疆

五角大楼正在推动一项可能改变AI军备竞赛规则的计划。国防部高级研究计划局(DARPA)与多家AI公司谈判,希望用机密数据训练模型——这是OpenAI、Anthropic等商业公司从未系统接触过的信息源。

传统上,顶级AI模型的训练数据以公开互联网内容为主。这种来源的局限性在军事场景暴露明显:开源情报无法覆盖敌方的作战手册、武器系统规格或指挥通信模式。用公开数据训练的模型,在预测对手行为时存在结构性盲区。

分类数据训练的障碍不仅是技术性的。AI公司需要获得政府安全许可,建立符合保密要求的计算基础设施,并解决模型"记忆"敏感信息后的泄露风险。Anthropic已公开拒绝部分军方合作请求,OpenAI的态度更为暧昧,其"禁止军事用途"的服务条款在2024年初被悄悄修改。

《纽约时报》获取的国防部备忘录显示,官员们将AI视为"改变战争性质"的技术,类比核武器或精确制导武器的历史影响。但当前AI系统的可靠性问题——幻觉率、对抗性攻击脆弱性、长尾场景失效——在军事决策的高 stakes 环境中被放大。

一个未被充分讨论的维度:用机密数据训练的模型,其输出是否仍对民间审计开放?如果模型的关键能力来源于不可公开审查的训练集,传统的AI安全评估机制将部分失效。

中国"能力收割者":焦虑经济的最新形态

中国"能力收割者":焦虑经济的最新形态

中国职场人对AI替代的恐惧,正在催生一种奇特的数字经济现象。一款名为"能力收割者"(Ability Harvester)的应用在社交媒体病毒式传播,声称可以将个人技能"封装"为AI工具,从而在未来就业市场中保留议价能力。

产品机制并不复杂:用户上传工作样本(PPT、代码、设计稿、文案等),系统生成模仿其风格的AI代理。宣传话术直击痛点:「让AI成为你的分身,而不是替代者。」

《南华早报》的调查发现,该项目的实际技术实现与宣传存在落差。多数"封装"结果只是基于通用大模型的轻量微调,难以胜任真实工作场景的复杂需求。但这未阻挡付费用户的增长——项目上线首月即宣称获得数十万注册用户,付费转化率超过行业均值。

更深层的商业逻辑在于"焦虑套利"。中国2024年高校毕业生预计达1179万,青年失业率数据在统计方法调整后仍处高位。AI对白领工作的渗透速度,超过了劳动力市场的再培训响应能力。"能力收割者"的付费用户中,相当比例来自互联网、金融、教育等被普遍认为"AI高危"的行业。

与此同时,另一类"AI hustle"也在蔓延。部分卖家在电商平台兜售"OpenClaw教程"——一个虚构的AI工具名称,实际交付内容是公开可获取的ChatGPT使用技巧。这种信息不对称的商业模式,依赖的是用户对AI技术认知的滞后性。

当技术变革速度超过社会适应速度,"如何与AI共处"的知识本身成为可交易的商品,而商品的质量参差不齐。

Artemis II:成功之后的悬念

Artemis II:成功之后的悬念

NASA的阿尔忒弥斯II号任务在2024年11月完成,四名宇航员绕月飞行并返回地球。任务中执行的实验包括深空辐射对人体的影响、长期隔离状态下的心理表现,以及新型生命维持系统的可靠性验证。

这些数据的直接用途是阿尔忒弥斯III号——计划中的首次载人月球着陆,目标南极-艾特肯盆地。但III号的时间表已多次推迟,从2025年末延后至2026年9月,且存在进一步滑动的可能。

延误的核心原因是技术债务。SpaceX的星舰(Starship)被选为月球着陆器,但其轨道加油技术尚未完成验证。NASA监察长办公室2024年报告指出,星舰的首次无人月球着陆演示可能推迟至2026年初,这意味着载人着陆的窗口被迫后移。

更深层的张力在于项目目标的分歧。阿尔忒弥斯计划被定位为"可持续的月球探索",要求在月球表面建立长期存在的基础设施。但部分国会议员和航天政策分析师质疑:在火星任务的技术路径尚未清晰时,月球基地是否最优资源配置?

阿尔忒弥斯II的成功数据,因此陷入一种尴尬的处境——它们证明了人类具备重返月球的能力,但无法回答"为何现在重返"的战略问题。

OpenAI与Musk:法庭对决的前奏

OpenAI与Musk:法庭对决的前奏

Elon Musk对OpenAI的诉讼正在进入关键阶段。这家他联合创立、后退出董事会、现公开抨击的公司,指控其"法律伏击"——在Musk发起诉讼后,OpenAI反诉并申请禁令,试图阻止Musk获取其内部文件。

诉讼的核心争议是OpenAI的公司结构转换。2015年以非营利组织形式创立,2019年改为"利润上限"模式,2023年再经历CEO罢免与复职的董事会危机后,其治理架构的合法性受到多重挑战。Musk的主张是:OpenAI背离了"造福人类"的创始使命,成为微软的附庸。

OpenAI的辩护策略强调Musk的诉讼动机不纯。公司提交的文件指出,Musk在离开OpenAI后创立了竞争对手xAI,其法律行动旨在获取商业情报。双方律师团队已在加州和特拉华州的多重程序中交锋。

《金融时报》梳理Musk近年的诉讼记录发现,他在Twitter收购案、特斯拉薪酬方案、SpaceX政府合同等多个领域发起或应对诉讼,胜率并不突出。但诉讼本身作为公共叙事工具的效果,可能独立于司法结果。

这场对决的真正观众或许不在法庭。OpenAI的800亿美元估值和Musk的个人品牌,都依赖特定的技术乐观主义叙事。诉讼过程中的文件披露、证人证词、媒体 leak,将持续重塑公众对"负责任AI开发"的想象。

当Moderna的疗法最终获批时,FDA标签上会印什么名字?这个尚未确定的选择,将同时影响患者的理解方式、保险公司的覆盖决策,以及下一代mRNA技术的公众接受度。语言在此刻不是中性的包装,而是技术与社会之间的谈判界面。