过去一年,用AI就像打开水龙头——想聊多久聊多久,想生成多少就生成多少。很多人已经把ChatGPT当成更快的Google来用。而Gemini背后的公司,一度以"免费放出最强模型"著称,纵容用户疯狂提问。现在,Google用行动宣告:这种日子结束了。

9to5Google最先发现的这次更新,表面看只是常规调整,实则暗藏杀机。Gemini最强功能的新使用上限悄然落地,Google不是在改价格,而是在传递一个信号——AI从来不是无限的。一旦你看清这一点,就再也回不去了。

打开网易新闻 查看精彩图片

这次更新彻底改写了Gemini的访问规则,尤其是高阶用户。限制已经生效:

听起来像是后台的小改动?不,这从根本上改变了AI的使用体验。因为天花板出现了。不管我们愿不愿意,访问方式已经变了。如果你发现AI回复突然变短、变没用、或者响应变慢,你可能已经撞上了这堵墙。

要明确的是,这不只是Gemini的问题。Claude、ChatGPT、Perplexity AI都在出现同样的模式。用户触达"软限制"时,回复质量就会变化。如果你太频繁使用高级功能——比如Gemini Veo 3.1或者ChatGPT-5.5 Thinking——访问会被节流。模型本身没有变差,但你用的版本可能已经不是原来那个。换句话说,你以为自己在用更高级的模型,但因为使用限制,你已经被悄悄降级到次级版本。

这种转变很隐蔽,大多数人甚至没意识到正在发生。他们可能收到一个敷衍的回复,随手再prompt一次,结果把限额推得更紧。

科技巨头正在为数据中心、能源和模型训练支付巨额账单,而用户现在开始为此买单。