昨日(6月14日),一场AI论坛爆火。

月之暗面、百川智能、智谱华章、面壁智能,4家AI公司首次同台分享。

4位顶流大模型公司的CEO,一聊就是一个多小时。

今天的大模型真能通往 AGI ?

还是说,它可能只是一个数据的压缩,并不一定能够通往AGI?

大模型价格战,是过度内卷还是有利于整个市场发展?

AI安全,是当下最急迫的问题吗?

论坛现场,主持人还问了一个“彩蛋”问题,斯坦福团队抄袭了中国大模型?

以下是本次论坛的嘉宾信息:

王仲远 智源研究院 院长

杨植麟 月之暗面 创始人兼CEO

李大海 面壁智能 联合创始人兼CEO

王小川 百川智能 创始人兼CEO

张鹏 智谱AI CEO

01

今天的大模型真能通往 AGI ?

王仲远:各位都是国内头部大模型公司的CEO,那我也想请教一下,各位是否相信大模型是通往 AGI 之路的基石?它可能依然只是数据的压缩,并不一定能够通往AGI?

王小川我觉得用“基石”这个词没有问题。我的结论是,我们到了 AGI 时代,这个时代里我们有足够多的科学家进来,更多资源进来,能够走向AGI。

今天大家已经看到的Scaling Law 带来的提升。但是我想说,它只是在逼近AGI,光靠 Scaling Law 是不够的。除了规模以外,必须产生范式的改变。

张鹏现在做人工智能的这波人还是挺实用主义的。所谓的实用主义就是,不看广告,看疗效,这东西能不能解决问题?能不能真像我们每个人心中的 AGI 那样可以帮我们推进一步?大模型到目前为止还是很有效地在推进这件事情。

而且就像刚才小川说的一样, Scaling Law 还是有效,还在往前进,那至于说,它是不是能帮助我们推到那个顶峰上去,我们现在也找不到很确切的答案。

李大海:我认为大模型一定是通往 AGI 这个方向上,当前所有技术里面能走得最远的。它能不能够直接到达,我觉得现在还有很多未知的因素,包括刚才提到的AGI定义是什么。

但我想提一个可能大家没有提到的点,我觉得现在的大模型作为知识压缩主要是在处理人的大脑的系统1的工作。我认为这种慢思考的系统2的去做各种各样的推理,搜索空间里面去做搜索、组合,来完成任务这样的能力,我觉得是未来大模型可能要通过 agent 的技术外部化,或者把它内化为自己的能力,这是行业里面大家需要去探索的。

杨植麟:对,我们比较相信大模型的第一性原理,就是通过不断地去提升模型的规模。 Scaling Law 没有本质的问题。而且我觉得接下来 3 到 4 个数量级是非常确定的。本质上是怎么定义 Scaling Law?Scaling Law 是什么?

如果就沿着现在的方法,用跟现在完全一样的数据分布,我觉得它的上限是很明显的。但是 Scaling Law 本身其实并不受这个的限制。它讲的是我只要有更多的算力,更多的数据模型,参数变大,那我就能持续产生更多的智能。

但这里面它并没有定义模型是什么样的,比如说它要多少个模态,它中间的数据是什么样的?我觉得scale 的方法可能会发生很大的变化。

02

AI价格战:过度内卷or普及运动?

王仲远:近期大模型价格战,大家怎么看?是更利于大模型普及,还是实不利于企业的长期发展?

王小川:我先说结论,价格战对中国发展大模型是特别好的事。先说个视角,很多时候好不好,你得看是对单个公司,还是整个市场。因为价格战,通常是市场行为,竞争的一个导向。我觉得至少带来两个好的后果:

第一个,更多公司和个人能用上大模型了。价格战让很多公司免费或便宜的使用大模型,让大模型在中国能够迅速普及,对整个市场都有好处。

第二个,减少了社会资源的浪费。大家在恐慌的时候,不知道大模型为何物,我观察到很多企业但凡有点技术能力,都说要自己拿卡训练大模型,甚至跑来找我们聊怎么联合训练。他本来是大模型的消费者、使用方,却想成为大模型的供给方。这种企业行为其实带来很多人才、资金和社会资源的浪费。

但在价格战之后,很多企业开始清醒了,我干嘛非得去做大模型?我到底在干嘛?我的竞争优势在什么地方?最终退回来成为了大模型的用户,减少了社会资源的浪费。

张鹏:之前有人跑过来跟我们说,你们是什么大模型价格战的发起方之类的。我说这个子虚乌有,我们一直秉持的一个概念,用我们的创新去降低大家使用大模型的成本,让大模型变成水电一样的基础设施,非常便宜,随时可用。

不过,不建议大家过多宣讲宣扬价格战,商业上肯定是牺牲企业的短期利益,但这不是一个正常的商业逻辑,只能持续很短的时间,最终还是要回归生产力价值。

杨植麟:如果我们把时间线拉足够长的话,最终还是会回归价值本身。我自己有三个判断:

第一,如果投入在推理上的算力,明显超过投入于训练的算力,这将是一个标志。就是说,你的价值开始得到释放,你前面用来训练的那些成本其实很大程度上可以被覆盖。

第二,如果从 c 端角度来说,你的推理成本可能会显著低于你的获客成本。从商业本质上来讲,可能不会跟之前的各种商业模式有非常本质的区别。

第三,AI 本身做的事情可能在会在某个时间点超过人做的事情。这时候就可能会产生新的商业模式。它可能不是今天说的价格战,而是一个普惠的AI,同时可能是根据它产生的价值,从这里面去分层产生的新型商业模式。

03

AI安全是当下最急迫的问题吗?

王仲远:现在大模型产业界怎么去看AI 安全?这是一个当下最急迫的问题吗?

王小川:AI安全有不同的内涵和外延,我想提三个安全相关的事情。

第一就是意识形态安全。国内的大模型首先要在意识形态上能跟国家发展,对一个民族、对一个社会负责,这个安全是个底线。

第二个是大家空谈得比较远的安全。觉得模型把人类灭了,人就没了,机器掌握世界了。我不希望发生像核弹一样的发明把人类文明给搞没了,但是研究模型是否比人更聪明,能够取代人做事情,是个鼓励的一件事情。在人类文明里,发展技术去延续我们的生命和文明,才是重要的事情。

第三个比较现实。现在AI连医疗都搞不定,能力如此之弱,就不要想什么AI颠覆人类这么复杂的事。所以,现实里我觉得近期还不存在安全问题。

张鹏:前段时间,我们刚和美国、欧洲、中东和亚洲其他国家的16家人工智能公司共同签署了《前沿人工智能安全承诺》。

这个事情就比安全要更大一点,我们叫负责任的AI,更多的方面是思考如何努力让技术真的帮助人类,帮助社会、帮助地球,而不是去为恶。

当然,我们很难保证没人去拿AI作恶,但你防守永远比破坏要难。更要的,不只是管理和约束AI作恶,更要增强大家对AI安全的了解,让大家形成统一共识,让更多人参与进来,把问题摆到桌面上。最后总有解决问题的办法。

李大海:我认为,现阶段AI安全主要还是聚焦在基础安全跟内容安全这两个方向上。未来的大模型本质上是只读的,就是我们把模型训练好,权重是固定的,你的推理其实不会影响权重,你的权重都是在线下去持续的阶段性训练的。

有一天当我们把模型部署到机器人终端上,如果它能动态地更新自己的权重,安全问题就会变成一个非常非常重要的课题。

04

回应:斯坦福团队抄袭中国大模型

王仲远:大家最近关注到一个热门新闻,斯坦福团队抄袭了面壁智能的开源模型MiniCPM-Llama3-V 2.5?

李大海:对,这个事情在国内引起了非常大的反响,我们完全没有想到会以这种方式出圈,挺惶恐的。

在这里我想也想澄清一下,我们认为这其实是海外的个别学生组成的小团队所做的个人行为,它不代表像 Stanford 这样的学校。事件发生后,像 Stanford 的系主任,还有整个西方的同行都表达了非常正的一些观点。这让我们也更加坚定地相信开源的力量。