打开网易新闻 查看精彩图片
上周,OpenAI给GPT-5.4 Pro和Thinking模型塞了个新能力:读论文不再只看文字,图表、公式、示意图全都能啃。这功能没发公告,没写更新日志,像快递塞门口一样静悄悄。
最先炸锅的是学术圈。MIT一位做生物信息学的研究员在X上吐槽,自己扔了一篇带12张复杂通路图的Cell论文进去,模型不仅读完了,还指出了图3和图7的数据矛盾。「它连Y轴截距的标注错误都抓出来了,这我以前得盯半小时。」
事情变得微妙起来。过去AI读论文是"文字转文字"的二手搬运,现在变成了直接看图说话。有实验室负责人算了一笔账:博士生精读一篇文献平均4小时,新模型压缩到15分钟,代价是可能漏掉作者埋的假设漏洞——毕竟AI不会突然拍桌子说"这实验设计有问题"。
OpenAI至今没解释为什么低调上线。一个合理的猜测是怕惹麻烦:科学出版商的版权墙高得很,直接解析图表等于在灰色地带蹦迪。Elsevier和Springer Nature的律师函,可比用户的赞美信来得快多了。
目前这功能只向Pro用户开放。一位斯坦福博士后试了三天后的反馈很典型:「它帮我筛掉了80%不值得细读的论文,但剩下20%我必须亲手重看一遍——因为AI不会告诉我,图4的漂亮曲线是用Excel手动拉出来的。」
热门跟贴