打开网易新闻 查看精彩图片

谷歌承诺,其新的人工智能搜索工具将“为你做事”,让在线查找信息变得更快、更容易。但就在发布几天后,该公司已经收回了一些与事实不符的结果。

本月早些时候,谷歌推出了一款人工智能生成的搜索结果概述工具,它可以汇总搜索结果,这样用户就不必点击多个链接来快速获得问题的答案。但本周,该功能因对一些用户的问题提供虚假或误导性信息而受到抨击。

例如,几名用户在X上发帖称,谷歌的人工智能摘要称前总统奥巴马是穆斯林,这是一种普遍的误解。事实上,奥巴马是一名基督徒。另一名用户发布的谷歌人工智能摘要称,“非洲54个公认的国家中,没有一个是以字母‘K’开头的”——显然忘记了肯尼亚。

谷歌发言人科莱特·加西亚在一份声明中说:“绝大多数人工智能概述提供了高质量的信息,并提供了网络上更深入挖掘的链接。”她补充说,其他一些谷歌人工智能错误的病毒例子似乎是被操纵过的图像。“在推出这个新体验之前,我们进行了广泛的测试,就像我们在搜索中推出的其他功能一样,我们感谢反馈。我们将根据我们的内容政策,在适当的情况下迅速采取行动。”

每个谷歌人工智能搜索概述的底部都承认“生成式人工智能是实验性的”。该公司表示,它进行的测试旨在模仿潜在的不良行为者,以防止人工智能摘要中出现虚假或低质量的结果。

谷歌的搜索概述是该公司将其双子座人工智能技术纳入其所有产品的更大努力的一部分,因为它试图在与OpenAI和Meta等竞争对手的人工智能军备竞赛中保持领先地位。但本周的溃败显示出,增加人工智能的风险——人工智能倾向于自信地陈述虚假信息——可能会损害谷歌作为在线搜索信息可信来源的声誉。

即使在不那么严肃的搜索中,谷歌的人工智能概述有时也会提供错误或令人困惑的信息。

在一项测试中询问谷歌,“泡菜汁中含有多少钠?”人工智能的概述回应说,一份8液盎司的泡菜汁含有342毫克的钠,但一份不到一半的泡菜汁(3液盎司)含有两倍多的钠(690毫克)。(沃尔玛(Walmart)有售的Best Maid泡菜汁中,仅1盎司就含有250毫克钠。)

在回应中,人工智能概述承认,“目前尚不清楚谷歌是否阻止版权材料被包含”在用于训练其人工智能模型的在线数据中,提到了对人工智能公司如何运作的一个主要担忧。

这并不是谷歌第一次因为一个令人尴尬的失误而不得不放弃其人工智能工具的能力。今年2月,该公司暂停了其人工智能照片生成器创建人物图像的能力,此前该公司因制作历史上不准确的图像而受到抨击,这些图像主要显示有色人种而不是白人。

谷歌的搜索实验室网页允许用户在人工智能搜索概述已经推出的地区切换该功能。