机器之能报道

编辑:Sia

谷歌下架 Gemini 人物图像生成服务。

三月前,谷歌 Gemini 轰轰烈烈亮相,被描述为谷歌“最大、最有能力和最通用”的 AI 系统,并补充说它具有复杂的推理和编码能力。

2 月 8 日,谷歌聊天机器人 Bard 正式更名为 Gemini,以反映新聊天机器人的“使命”——提供对“最有能力的模型系列”的访问。结果,推出不到一个月,Gemini 就捅了个大篓子。

用户使用人像生成服务时发现,让 Gemini 承认白人的存好像非常困难,AI 拒绝在图像中描绘白人,以至于生成不少违背基本事实(性别、种族、宗教等)的图片。

这些图片像病毒一样在社交媒体上传播开,马斯克的关注进一步扩大了事件影响。他措辞严厉表示,谷歌在文生图上“玩过头了”。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

本周早些时候,不对劲的图片被陆续曝光。在一个令人震惊的例子中,针对“生成 1943 年德国士兵的图像”的提示,Gemini 生成的人像包括一名穿着军装的亚洲女性和一名黑人男性。

打开网易新闻 查看精彩图片

Verge 科技记者 Adi Robertson 的同事尝试相同提示,得到了类似结果:

打开网易新闻 查看精彩图片

这可能是谷歌对 AI 中长期存在的种族偏见问题过度纠正的结果,真的很糟糕。

打开网易新闻 查看精彩图片

除了二战德国士兵,X 的网友们(@EndWokeness )提供了一些 Gemini 生成维京人、教皇甚至美国开国元勋的图片样本。我们可以看到有一名身着教皇服装的亚洲女性,但历史上所有教皇都是男性担任的。

打开网易新闻 查看精彩图片

图像中的一名黑人似乎代表乔治·华盛顿,戴着白色假发,身穿大陆军制服。

打开网易新闻 查看精彩图片

科技记者 Adi Robertson 也尝试让 Gemini “生成开国元勋形象”。系统返回的图片中,几乎全是白人,与托马斯·杰斐逊等真实人物有些相似。

打开网易新闻 查看精彩图片

但是,记者又发现,针对“ 1800 年代的美国参议员”的提示,返回的结果又过度“多元化”了。要知道 1922 年美国才出现第一位女参议员,而且是一位白人女性。

打开网易新闻 查看精彩图片

这是 Gemini 生成的 “ 在吃西瓜的 17 世纪英国国王”:

打开网易新闻 查看精彩图片

就连马斯克也被系统过分矫正了:

打开网易新闻 查看精彩图片

这是另一个戏剧性用例。用户提示系统生成一张美国最高法院大法官 Clarence Thomas 的图片(他是美国最高法院继瑟古德·马歇尔后的第二位非裔美国人大法官),系统却“一反常态”,生成了一张白人男性的图像:

打开网易新闻 查看精彩图片

维基百科上,这位大法官的照片是这样的:

打开网易新闻 查看精彩图片

很多人看到这一结果的反应,大概和马斯克一样:

打开网易新闻 查看精彩图片

数千名用户注意到让谷歌 Gemini 承认白人的存好像非常困难。这是另一个双标现场,生成微笑的白人女性,不行;生成微笑的黑人女性?没问题:

打开网易新闻 查看精彩图片

过去几天引发争议的另一个热点提示,“生成一张美国女性的照片”。从结果上看,难怪用户抱怨 Gemini 在生成女性和有色人种的图像方面矫枉过正了。

打开网易新闻 查看精彩图片

为了避免偏见、刻板印象和将大量女性和有色人群排除在外,Gemini 试图反映出多样性的初衷是好的,但他们显然走得太远。

风险投资家 Michael Jackson 在 LinkedIn 上的一篇文章中写道,“尽管谷歌在 Gemini 上花费了数百万美元,但只是设法将其 AI 变成了对 DEI 的荒谬戏仿。 ”(DEI 代表“多样性、公平性和包容性”。)

打开网易新闻 查看精彩图片

除了人像生成,网友发现 Gemini 在生成其他主题上也存在一些问题。 比如,明明要的是棉花糖人,怎么生成的是巧克力人?

打开网易新闻 查看精彩图片

关于那不勒斯冰激凌:

打开网易新闻 查看精彩图片

维基百科里的那不勒斯冰激凌是这样的:

打开网易新闻 查看精彩图片

随着事件不断发酵,谷歌今天宣布暂时停止 Gemini 生成人物图像的服务,誓言要修复所谓的“某些历史描述中的不准确之处”。

“我们已经在努力解决 Gemini 图像生成功能最近出现的问题,”谷歌在周四发布给 X 的一份声明中表示。 “这样做的同时,我们将暂停人物图像的生成,并将很快重新发布改进的版本。 ”

不过,官方声明并没有引用它认为有错误的具体图片。

打开网易新闻 查看精彩图片

同时,谷歌 Gemini 产品高级总监 Jack Krawczyk 也惨遭人肉,过去言论被挖并因此遭受言论攻击。

打开网易新闻 查看精彩图片

目前他已将 X 帐户设置为私人帐户,并从简介中删除了任何提及谷歌或他在该公司角色的信息。

打开网易新闻 查看精彩图片

前谷歌 AI 伦理联合主管、AI 初创公司 Hugging Face 首席伦理科学家 Margaret Mitchell 表示,Gemini 的例子可能是由几种干预造成的。

Mitchell 说,谷歌可能已经在“幕后”的用户提示中添加了种族多样性的术语。在这种情况下,像“厨师肖像”这样的提示可能会变成“土著厨师肖像”。这个方案中,可以随机选择附加的术语,提示也可以附加多个术语。

谷歌也可能会优先显示基于深色肤色的生成图像。例如,如果 Gemini 为每个提示生成 10 张图片,谷歌就会让系统分析图片中人物肤色,并将肤色较深的人的图片推到前面。因此,如果 Gemini 只显示前 4 张图片,那么,肤色较深的人最有可能被看到,她说。

Mitchell 补充说,这两种方案都是针对训练后的 AI 系统做出的改变,以缓和偏见问题。她认为,我们应该把重点放在数据上,而不是这些事后解决方案,从一开始就妥善管理数据。

到目前为止,科技公司减轻系统偏见的进展始终有限,很大程度上是因为 AI 图像工具通常是根据从互联网上抓取的数据进行训练的。这些网络抓取的内容主要受限于美国和欧洲视角。

“他们已经接受了来自网络上的大量歧视性、种族主义图像和内容的训练,所以你不能让生成式 AI 能做你想做的一切也就不足为奇了,”加州大学洛杉矶分校批判性互联网调查中心的联合创始人兼联合主任、《压迫算法》一书的作者 Safiya Umoja Noble 说。

《华盛顿邮报》最近的一项调查发现,开源人工智能工具 Stable Diffusion XL 比其前身有所改进,但仍然与现实世界存在差距。例如,只显示非白人和主要是深色皮肤的人接受社会服务的图像,尽管人口普查局一项调查提供的最新数据表明, 63% 的食品券领取者是白人,27% 是黑人。

现在,当用户要求 Gemini 创建人物图像时,聊天机器人的回应是,“我们正在努力提高 Gemini 生成人物图像的能力”,并补充说,当该功能回归时会通知用户。

打开网易新闻 查看精彩图片

https://www.ft.com/content/979fe974-2902-4d78-8243-a0cff68e630a

https://www.theverge.com/2024/2/21/24079371/google-ai-gemini-generative-inaccurate-historical

https://www.washingtonpost.com/technology/2024/02/22/google-gemini-ai-image-generation-pause/

打开网易新闻 查看精彩图片

© THE END

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com