鞭牛士报道,2月18日消息,OpenAI本周预告了其最新的视频人工智能模型 Sora,引起了观察家和媒体的热烈反响。

值得赞扬的是,该公司展示的样品确实令人印象深刻,从一只狗坐在窗台上的逼真镜头到一群毛茸茸的猛犸象在雪地上奔跑。

但该公司本周分享的许多片段并没有经受住更深入的审查——并且表明,尽管Sora如此重要,但在准备好进入黄金时段之前,还有许多错误需要解决。

典型的例子是:嵌入公司网站顶部的第一个样本,是一个时尚女性走在充满温暖的霓虹灯和动画城市标牌的东京街道的移动跟踪镜头。

当然,乍一看似乎令人印象深刻,但如果你在整个一分钟的剪辑中仔细观察女人腿和脚的运动,就会发现一些严重的缺陷。在 16 秒和 31 秒左右,她的整个腿和脚巧妙地交换了位置。认真地想一想:她的左右腿完全交换了位置,这表明人工智能对人体解剖学只有表面的了解。

经过鞭牛士实际测试,在16秒和31秒时,女人的左右腿确实诡异的切换了位置。

我们是否被直视他人眼睛的自然倾向所愚弄?考虑到这段视频在该公司网站上的重要性,甚至 OpenAI 也有可能没有发现这个视频。

平心而论,与早期的人工智能生成视频示例相比,Sora 的功能实现了巨大飞跃。还记得威尔·史密斯(Will Smith)沉迷于一碗意大利面的可怕人工智能片段吗?那是不到一年前的事了。

尽管该公司的最新展示令人震惊——头条新闻主要将 OpenAI 的 Sora 样本描述为逼真,Ars Technica 警告任何共享现实感都会产生影响——但生成式人工智能的局限性仍然很明显。

与此同时,重要的不是我们在哪里。一如既往,这就是我们前进的方向——这应该鼓励像 OpenAI 这样的公司谨慎行事,即使今天最好的演示仍然不完美。