一位斯坦福CS辍学、几乎不写代码、会把基础AI术语搞混的人,正站在人类历史上最 consequential 技术的方向盘前。

《纽约客》这篇调查采访了近20位OpenAI内部人士,拼出的画像和公众认知差得有点远。

01 | 技术底子的"灯下黑"

01 | 技术底子的"灯下黑"

Altman的简历不算秘密:斯坦福CS读两年,没拿到学位,创业经历丰富但和技术架构关系不大。

纽约客》拿到的细节更具体。多位前员工回忆,Altman在内部会议中会把 Transformer 和注意力机制的基本概念说混,把训练阶段和推理阶段的术语用错位置。一位2022年离职的研究员说:「有次他当着整个研究团队的面,把 RLHF(基于人类反馈的强化学习)解释成了完全不同的东西,没人当场纠正他。」

这不是学历歧视。硅谷非技术出身CEO一抓一大把。问题是OpenAI的特殊性——它自我定位是AGI(通用人工智能)的领跑者,而AGI被内部定义为"在所有认知任务上超越人类"的系统。这种技术的决策权,落在一个对技术机理只有模糊概念的人手里。

一位参与过GPT-4发布筹备的工程师描述了一个场景:2023年初的一次产品评审,Altman追问为什么模型在某些推理任务上表现不稳定。技术负责人解释了链式思维(Chain-of-Thought)的局限性,Altman打断说"那我们多堆点算力不就行了"。会议室安静了几秒。「他真以为这是线性问题。」

02 | "操纵者"的正面评价

02 | "操纵者"的正面评价

《纽约客》的标题很狠,但采访对象对Altman的能力评价并不低——只是维度不同。

近20位受访者中,超过半数用了同一个词:manipulator(操纵者)。注意这不是中文语境里的纯贬义。一位2019年加入的早期员工说:「他知道怎么让聪明人觉得自己的想法被重视,同时把所有人往他要的方向推。这是天赋。」

这种天赋的具体表现:Altman会在不同场合对不同的人说不同版本的公司愿景。对安全研究团队强调"渐进式发布、谨慎评估",对微软合作方强调"快速迭代、抢占市场",对政策制定者强调"非营利初心、造福人类"。

一位2021-2023年任职的政策研究员回忆:「有次我同时参加了两场他主持的会议,间隔两小时。一场说'我们绝不会在安全性上妥协',另一场说'竞争对手不会等我们'。两句话都是真心的,也都不是完整的。」

这种"多线程叙事"在2023年的"宫斗事件"中达到顶点。Altman被董事会罢免后48小时内,超过700名员工签署联名信威胁辞职,投资者施压,微软抛出橄榄枝。他回来后的第一件事:重组董事会,把原成员换了个七七八八。

03 | 权力结构的"真空地带"

03 | 权力结构的"真空地带"

OpenAI的治理设计本来有个安全阀:营利子公司受非营利董事会约束,重大决策需要平衡商业利益与使命安全。

《纽约客》挖出的细节显示,这个结构在实际运行中形同虚设。Altman通过一系列人事安排,让董事会成员要么是他的长期盟友,要么是对技术细节缺乏判断力的外部人士。2023年罢免他的原董事会成员,被内部称为"唯一敢在技术问题上挑战他的人"。

更微妙的是信息流动。多位受访者证实,Altman会选择性向董事会汇报技术进展——安全团队的担忧被压缩成"需要关注的风险",产品团队的突破被放大成"里程碑式进展"。一位前董事会顾问说:「我们拿到的材料,和他向微软展示的PPT,是两套叙事。」

这种信息不对称的直接后果:2023年底Q*项目(内部代号,涉及数学推理能力突破)的进展,董事会是在媒体报道后才全面知情的。而Altman对此的解释是"技术团队还在验证,不想过早惊动大家"。

04 | AGI方向盘上的"代驾"困境

04 | AGI方向盘上的"代驾"困境

把Altman和纯技术领袖对比,容易得出"外行领导内行"的结论。但《纽约客》的采访指向一个更复杂的现实:OpenAI的技术决策权,实际上分散在一群互不统属的强人手里。

首席科学家Ilya Sutskever(宫斗事件后离职创业)主导研究方向,总裁Greg Brockman管工程执行,产品负责人负责落地节奏。Altman的角色更像是"资源整合者"——拿融资、建关系、定叙事、在冲突时拍板。

问题在于,AGI的决策没有先例可循。传统科技产品的风险是"赔钱"或"被监管",AGI的风险是"不可控"或"被滥用"。当技术团队内部对某项能力是否安全存在分歧时,Altman的判断依据往往不是技术细节,而是"竞争对手在做什么"或"舆论会怎么反应"。

一位2023年离职的安全研究员说:「有次我们坚决反对提前发布某版多模态能力,理由是评估不充分。他的回应是:'Google下周有发布会,我们沉默就是落后。'这不是技术决策,是博弈决策。」

05 | 那个被回避的问题

05 | 那个被回避的问题

《纽约客》的调查没有给出结论,只是呈现了一个悖论:OpenAI把AGI定义为需要最高级别技术审慎的目标,却把这个目标的掌舵权交给了一个技术审慎并非其强项的人。

Altman的辩护逻辑,据多位受访者转述,大致是:「爱因斯坦不需要自己会造火箭,他需要的是理解物理规律并找到造火箭的人。」但这个类比有个漏洞——火箭发射失败可以复盘,AGI的"发射"可能没有第二次机会。

2024年初的一次内部全员会上,有员工直接提问:如果董事会认为某项技术风险过高,但你觉得商业上必须推进,你会听谁的?

Altman的回答被在场三人分别复述给《纽约客》:「我会确保董事会理解我的判断。」

没人追问:如果董事会理解了,还是不同意呢?

这个问题至今没有公开答案。而OpenAI的下一版旗舰模型,据说已经在训练中了。