Scaling Law 已成为大模型进化的「不二法门」。

大模型参数量越大、数据集规模越大、算力消耗越大,性能就越好。性能越好,越受欢迎,业务拓展与运营的成本就越高。

相比较海外的大模型大厂,国内的大模型公司会面临更严峻的算力问题,资金问题、显卡限购的问题,以至于有不少人质疑,中国大模型到底有没有 Scaling Law?

成立不足一年的无问芯穹,试图回答这个问题,解决中国的算力难题。

无问芯穹联合创始人 & CEO 夏立雪认为,国内整体算力水平距离国际先进还有明显差距,光靠芯片工艺提升或是多元芯片的迭代已远远不够,需要建立一个大模型生态系统,让不同模型能自动部署到不同硬件上,让各种算力得到有效利用。

3 月 31 日,无问芯穹发布基于多芯片算力底座的无穹 Infini-AI 大模型开发与服务平台,支持了 Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3 闭源模型、Llama2、Qwen、Qwen1.5 系列等共 20 多个模型,以及 AMD、壁仞、寒武纪、燧原、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡,支持多模型与多芯片之间的软硬件联合优化和统一部署。

  • 为什么 CUDA 会垄断大模型算力市场?

  • 英伟达之外,算力市场还有没有新的可能性?

  • Scaling Law 到底如何影响大模型的进化?

  • 国内算力市场的机遇在哪里?

今晚 8 点,无问芯穹联合创始人 & CEO 夏立雪将做客 Founder Park 视频号直播间,与极客公园创始人 & 总裁张鹏聊聊中国大模型的 Scaling Law 难题。

如果你关注大模型领域,欢迎扫码加入我们的大模型交流群,来一起探讨大模型时代的共识和认知,跟上大模型时代的这股浪潮。