凌晨三点,有人把《祭侄文稿》喂给了GPT-image-2。出来的图让我愣了一下——这算致敬还是误读?

正方:技术派觉得这事成了

打开网易新闻 查看精彩图片

颜真卿写《祭侄文稿》时,侄子颜季明死于安史之乱,满纸涂改、墨色枯润交替,被称"天下第二行书"。GPT-image-2能识别这种情绪密度,本身说明多模态模型对"非视觉信息"的抓取在进化。

打开网易新闻 查看精彩图片

同样被测试的还有司马迁《报任安书》、韩愈《祭十二郎文》。三篇共同点是:文字承载的情绪重量远超字面意思。模型输出如果能让没读过原文的人"感受到不对劲",就算技术胜利。

反方:细节党认为差得远

书法史研究者会指出:《祭侄文稿》的"渴笔"是颜真卿写到"父陷子死"时情绪崩溃、笔锋散乱造成的物理痕迹。AI能模仿墨色,但模仿不了"手抖"背后的生理真实。

更麻烦的是语境。原文是悼念战死的亲人,AI生成的"悲愤"可能更接近通用的"悲伤模板"——就像用滤镜把葬礼拍成电影剧照,情绪对了,但轻了。

打开网易新闻 查看精彩图片

我的判断:这不是技术问题,是产品定义问题

GPT-image-2的这次测试,真正有价值的地方在于暴露了"情绪还原"的模糊地带。用户要的是视觉相似,还是情感共鸣?是信息传递,还是文化转译?

目前看,模型更适合做"引子"——让陌生人对经典产生好奇,而非替代原作。但如果有人把这当成"我已经懂颜真卿了",就是产品设计的陷阱。

技术能走多远,取决于我们怎么定义"懂了"。