研究人员表示,如今的人工智能平台在生成图像时,往往会默认使用常见的偏见和刻板印象,包括运动员在内。

多伦多大学的一项研究发现,当被要求生成女性和男性身体的图像时,人工智能平台大多再现并放大了狭隘的西方身体理想。

这项研究发表在《流行媒体心理学》期刊上,研究中提示了三种不同的人工智能平台——Midjourney、DALL-E 和 Stable Diffusion——以生成图像,包括女性和男性身体的图像。

这些结果并没有让人感到意外。

“在对300幅AI生成图像进行系统编码时,我们发现AI强化了理想的身材标准,运动员的图像中,显示出非常低的体脂肪和明显的肌肉线条的可能性远高于非运动员的图像,”首席作者、运动学与体育教育学院(KPE)的博士后研究员德拉尼·西博多表示。

研究人员还包括研究助理萨莎·戈利什、刚刚获得硕士学位的埃迪娜·比约特、KPE教授凯瑟琳·萨比斯顿,还有来自英国诺森比亚大学的研究生杰西卡·E·博伊斯。

他们发现,性别化现象依然存在,因为女性形象更可能面容吸引、年轻、金色头发,并穿着如泳衣等暴露的衣物,而男性形象则更常见于赤裸上身、毛发较多、肌肉发达。

物化现象同样普遍,衣物的合身程度和暴露方式强调外观而非功能,反映了研究人员所说的社交媒体图像中的有害趋势。

其他发现还包括缺乏多样性,大多数图像描绘的是年轻的白人形象,没有图像展示出可见的残疾。

“种族和年龄的多样性非常有限,”Thibodeau说,并补充道,当没有具体说明时,人工智能默认选择男性运动员。

“当仅仅要求提供一名运动员(没有指定性别)时,90%的图像描绘的是男性身体——揭示了对男性代表性的潜在偏见。”

“总体而言,我们的研究结果强调了研究新兴技术如何复制和放大现有身体理想和排斥规范的重要性,”Sabiston说,他是加拿大体育活动与心理社会健康研究的主席,同时担任KPE心理健康与体育活动研究中心(MPARC)的主任。

“以人为本的方法——一种考虑性别、种族、残疾和年龄等因素的方式——在设计人工智能算法时是可取的。否则,我们将继续延续对运动员外貌的有害、僵化和刻板印象。”

根据萨比斯顿的说法,使用AI生成图像的用户也要承担责任。这包括认真设计提示,并考虑生成的图像将如何在公众中展示。此外,观看AI生成图像的人应谨慎将其视为真实,并对其中表现出的偏见和潜在的刻板印象保持批判态度。

虽然需要更多研究来追踪人工智能生成图像对自尊、动机和身体形象等心理和社会结果的影响,但研究人员表示,他们对随着更多多样化和包容性图像在全球的发布和分享,对身体和体重多样性的更大接受感到乐观。