打开网易新闻 查看精彩图片

2025年,OpenAI的政治游说预算从176万美元飙到300万美元。这笔钱没花在明处——它变成了一家叫"父母与儿童安全AI联盟"的民间组织,悄悄接触全美儿童安全非营利机构, solicit(征集)他们对一项政策提案的背书。

直到这些组织发现,自己签名的提案和OpenAI在加州联署的法案几乎一字不差。那份法案的核心是:保护AI公司免于因产品问题承担法律责任。

「草根组织」的壳,OpenAI的瓤

「草根组织」的壳,OpenAI的瓤

旧金山标准报(San Francisco Standard)的调查还原了时间线。2024年底到2025年初,多个儿童安全非营利机构收到联盟邮件,对方自称新兴民间组织,致力于推动AI儿童安全立法。邮件措辞专业,诉求正当——要求平台识别未成年人、限制有害内容传播。

两家机构在签约后察觉异常。当他们联合质疑政策细节时,联盟的回应方式暴露了问题:律师口吻、技术化表述、对 liability shield(责任豁免条款)的执着。深挖之下,注册文件显示联盟由OpenAI雇佣的律所创立,资金、人员、策略全部来自这家公司。

「感觉非常脏,」一位要求匿名的组织者说,「发现他们在背后偷偷摸摸搞这种事——我不想说他们 outright lying(完全撒谎),但那些邮件确实误导性很强。」

至少两家机构已撤回背书。FairPlay for Kids执行董事Josh Golin直接拒绝加入,他在采访中说得直白:「我希望OpenAI靠边站,让倡导者、家长、公共卫生专业人士来决定如何监管AI,而不是科技行业。我不想让OpenAI给自己写规则。」

300万刀买来的「民间声音」

300万刀买来的「民间声音」

OpenAI的游说支出曲线很说明问题。2024年176万,2025年300万,涨幅70%。但比数字更关键的是花钱的方式——不是直接派说客去 Sacramento(萨克拉门托,加州首府),而是制造一层「独立公民社会」的滤镜。

这种操作的精妙之处在于:当立法者看到一堆儿童安全组织的联名信,他们不会想到这是AI公司在自我游说。当媒体引用「家长联盟」的声明,读者不会意识到信源和信宿是同一批人。

儿童安全倡导者成了 unknowing lobbyists(不知情的说客)。他们的专业信誉被借用,用来包装一项可能削弱自身追责能力的法案。一位组织者形容这是「借你的嘴,堵你的路」。

加州那份法案的具体条款尚未完全公开,但多方信源确认其包含 Section 230 风格的豁免条款——即平台不因第三方内容担责的AI版本。对于生成式AI来说,这意味着如果ChatGPT给未成年人输出有害内容,OpenAI可能免于诉讼。

从开放到封闭:研究团队的转向

从开放到封闭:研究团队的转向

这件事的讽刺性还在于OpenAI的身份漂移。这家公司名字里带着「Open」,早期以开放研究著称,定期发布模型能力与安全风险的详细报告。但内部人士透露,研究团队的角色正在转变——从独立探索者变成政策倡导者。

过去,OpenAI会主动披露模型的局限、偏见、潜在滥用场景。现在,同样的团队被期待为公司的监管立场提供学术背书。一位前员工形容这是「用科学论文的格式写公关稿」。

这种转变和资金压力直接相关。OpenAI 2024年营收约37亿美元,但训练成本、算力租赁、人才争夺吞噬了利润。公司估值860亿美元,投资者需要退出路径,而监管不确定性是最大风险之一。

300万游说费是保险支出。如果能在关键州锁定有利的 liability framework(责任框架),这笔投资回报率可能以十亿计。

科技游说的「民间组织」 playbook

科技游说的「民间组织」 playbook

OpenAI不是第一个玩这套的。科技行业的 astroturfing(假草根运动)有成熟模板:2010年代,Uber用「司机合作伙伴」组织对抗劳工监管;Facebook资助「自由互联网」联盟反对数据隐私法案;亚马逊的「小企业赋能」项目实为抗税游说。

但AI监管的 stakes(赌注)更高。生成式AI触及内容安全、知识产权、就业替代、选举干预,每个领域都可能催生巨额诉讼。OpenAI已经在应对《纽约时报》版权案、多名作者集体诉讼、意大利数据监管机构的调查。

在这种背景下,「儿童安全」是一个完美的议题切入点。谁反对保护儿童?但把 liability shield 塞进儿童安全包装,相当于给免责条款穿上防弹衣。质疑条款就是反对儿童保护,这种 framing(框架设置)让反对者陷入道德困境。

被蒙在鼓里的儿童安全组织现在面临两难。公开揭发会消耗政治资本,沉默则意味着被工具化。Josh Golin选择公开,但承认「这不是容易的决定——我们本可以和OpenAI合作,拿到 funding(资金)和 access(渠道),但代价是成为他们的传声筒。」

监管博弈的下一站

监管博弈的下一站

加州法案的命运尚未确定。但OpenAI的策略已经暴露:在联邦层面僵局的情况下,押注州级立法,用先发优势锁定对自己有利的规则。其他AI公司也在跟进——Anthropic、Google、Meta的游说支出同步上涨,只是还没被曝出「假草根」操作。

对于关注AI治理的观察者,这件事提出了一个测试标准:当某个「民间组织」突然高调支持科技公司的监管立场,追问其资金来源应该成为本能反应。真正的草根运动和 astroturfing 的区别,往往藏在 IRS 990表格的附注里。

那些撤回背书的儿童安全组织正在重新评估合作对象。一位组织者说,他们现在要求任何联盟提供完整的 donor list(捐赠者名单)和 governance structure(治理结构)才考虑加入。「信任重建需要很长时间,」她说,「而OpenAI用一封邮件就毁掉了它。」

当立法者下次收到「家长联盟」的来信,他们会不会先查一下发件人的雇主?当公众看到儿童安全组织的联名倡议,他们还能不能相信这是独立判断而非精心编排?OpenAI的300万美元买到了一时的政策影响力,但它花多少钱能买回这些组织——以及更广泛意义上的公众——对AI行业自律尝试的信任?