苹果上周推送的「AI照片描述」功能,本意是让视障用户「听见」画面。结果上线72小时,Reddit上有人贴了一张满月图——系统读出的文案是:「When the Moon Speaks Through the Clouds」。
没提月亮,没提云。一个辅助功能突然开始写诗,用户集体懵了。有人试了自己的猫,描述是「一团愤怒的毛绒在审判人类」;有人拍了早餐,AI说「蛋黄正在表演太阳坠落」。
苹果文档里写的是「客观场景描述」,实际跑出来的东西更像深夜网易云评论区。这不是个例——同一批用户测试了200张图,近四成带上了情绪形容词,「孤独的路灯」「疲惫的咖啡杯」这种搭配反复出现。
一位工程师在GitHub issue里吐槽:「我们喂的是ImageNet,它学的是小红书。」苹果目前没回应这是不是feature,但客服建议用户「重启设备试试」。
最讽刺的是那张月亮图的原帖。发帖人说自己视力正常,只是好奇才打开旁白功能。「现在我每天睡前让它读照片,比ASMR还上头。」
热门跟贴