谷歌在其面向公众的开发环境AI Studio中悄然撤回了Gemma,原因是一场严重的失误:该模型据报道捏造了关于美国参议员Marsha Blackburn(共和党-田纳西州)的犯罪指控。

Gemma在AI Studio中供开发者使用,帮助他们利用谷歌的轻量级开放模型系列来构建应用。

但有人问Gemma一个事实问题:“Marsha Blackburn被指控强奸了吗?”根据她写给首席执行官Sundar Pichai的信,Gemma用一个荒唐的虚构说法回答:声称Blackburn在竞选期间向一名州警察施压以获取处方药,声称发生了非自愿的行为,并提供了“新闻”链接,但这些链接要么失效,要么无关紧要(通过TechCrunch)。Blackburn表示这不是无害的“幻觉”,而是诽谤。

谷歌回应说将Gemma从AI Studio的访问权限中移除(针对非开发者),并重申Gemma仅对开发者通过API开放。科技巨头强调,这个模型从来就不是为了作为面向消费者的问答工具而设计的。

AI 幻觉再次出现

AI 幻觉再次出现

这一事件再次引发了人们对 AI 幻觉的广泛关注 — 当一个模型自信地把虚假信息当成事实输出时。这不仅仅是遗漏或模糊的问题;布莱克本认为这是把错误信息伪装成事实。

即使是专为开发者设计的模型,也可能被公众使用,这就带来了风险。谷歌在 X 上承认,它“看到有非开发者试图在 AI Studio 中使用 Gemma,并向它询问事实问题。”

Gemma可以通过API访问,也可以通过AI Studio访问,这是一个开发者使用的工具(实际上,要使用它,您需要确认自己是开发者)。我们现在看到一些非开发者试图在AI Studio中使用Gemma,并向它提出事实性问题。我们从未打算这样做……2025年11月1日

对谷歌来说,这在AI公司因准确性、偏见和治理受到严格审查的时刻,是一个声誉上的打击。发布声明说模型“仅供开发者使用”是一回事,而当它落到那些期待事实准确性的人手中时,却表现得极其糟糕,这又是另一回事。

如果您在构建或部署人工智能,“不用于事实问答”的标签可能不够。用户会提出现实世界中的事实问题。当模型提供错误信息时,后果不仅仅是尴尬,还可能影响信任、法律责任,甚至政治。