中新经纬9月25日电 大模型迎来又一次重磅开源!国内这家科技企业在AI大模型角逐中表现相当亮眼。

9月25日,阿里云开源通义千问140亿参数模型Qwen-14B及其对话模型Qwen-14B-Chat,免费可商用。此前,阿里云刚开源了70亿参数模型Qwen-7B等,一个多月下载量破100万,成为开源社区的口碑之作。接连开源动作背后,是牵引大模型行业更开放的生态布局。

回顾这场由ChatGPT掀起的大模型浪潮,在短短数月引来国内科技巨头纷纷下场。百度发布大模型产品文心一言,阿里云通义千问大模型紧随其后;接着是复旦大学、中科院自动化研究所、智源研究院等学术流加入;以及科大讯飞、商汤等中腰部科技公司入局。

“以大模型之名”,一时间百模兴起。截至目前,中国10亿参数规模以上的大模型已发布近百家,陆续入局的大小模型公司更是不计其数。8月31日起,随着首批通过备案的生成式人工智能及大模型应用陆续宣布面向公众开放,国内大模型之战,从众人口中的“烧钱游戏”,逐步走向追求应用落地。

事实上,在通义千问亮相时,阿里云就对外宣布未来阿里所有产品未来将接入大模型全面升级,希望帮助更多企业用上大模型,让更多生态企业基于“通义千问”,拥有具备行业能力的专属大模型。

往生态布局,开源开放无疑是一支强力助燃剂。众所周知,AI大模型的训练成本非常高,多数企业和开发者难以承受。开源大模型可以在源头上帮助更多的企业降低算力成本,简化模型训练和部署的过程。企业不必从头训练模型,只需下载预训练好的模型并进行微调,就可快速构建高质量的模型或进行相应的应用开发。

作为国内最早开源自研大模型的科技公司,阿里云对打造大模型开源生态不遗余力。去年2022年,阿里云率先在业内提出MaaS(Model as a Service,模型即服务)理念,这一理念为新一轮AI浪潮下的大模型生态建设提供了理论依据。仅半年间,MaaS理念迅速成为行业共识。

MaaS理念的内核,在于提出一种全新的、以AI模型为核心的开发范式。阿里云据此搭建了一套以AI模型为核心的云计算技术和服务架构,服务于大模型生态建设,并将这套能力全部向大模型初创企业和开发者开放,提供包括模型训练、推理、部署、精调、测评、产品化落地等在内的全方位服务。

在基础设施层,阿里云拥有国内最强的智能算力储备,阿里云灵骏智算集群可支持最大十万卡GPU规模,承载多个万亿参数大模型同时在线训练;在AI平台层,阿里云机器学习平台PAI提供AI开发全流程的工程能力,可将大模型训练时间缩短10倍。

阿里云建设了一站式的模型服务平台灵积,灵积拥有自动化的模型上云统一工具链路,支持模型的自主接入,所有接入灵积的模型都能自动获取平台的强大服务能力,包括基于阿里云强大算力的跨区域自适应弹性能力,并提供基于云原生的公共部署以及用户自定义独占部署等多种形式,来满足不同模型的需求。据了解,灵积平台现已托管通义千问、Stable Diffusion、ChatGLM-v2、百川、姜子牙等大模型。

在开发者生态层,阿里云牵头建设的魔搭社区现已聚集230万AI开发者和由30多家顶尖人工智能机构贡献的1200多个优质AI模型,模型累计下载量突破8500万。

阿里云CTO周靖人表示,未来将继续以推动中国大模型生态建设作为最大愿景和目标,持续拥抱开源开放,开源自研大模型,让大模型技术更快地触达中小企业和个人开发者。

如果说“公共云+AI”的系统能力是大模型竞争的入场券,那技术和产业生态将是接下来全球大模型竞争的主战场。AI大模型的竞争不仅是公司之间、研究团队之间的竞争,更是生态与生态间的竞争。

业内人士认为,产业生态是构筑商业闭环和竞争壁垒的关键,越早将大模型推向市场,越多吸纳用户的反馈来反哺大模型,越能实现“模型越强、应用越多,应用越多、模型越强”的“飞轮效应”。

目前,围绕着阿里云通义千问大模型的生态应用也层出不穷,已有多家月活过亿的企业基于通义千问进行专属大模型或大模型应用开发,包括阿里系的淘宝、钉钉、未来精灵,以及外部的科研机构、创业企业。通义千问已经成为目前落地最深、应用最广的中国大模型。

阿里云副总裁、公众与客户沟通部总经理张启表示,一花独放不是春,百花齐放春满园。不管是闭源大模型的还是开源大模型,自研大模型还是第三方大模型,大规模参数模型还是小规模参数模型,通用大模型还是行业、企业专属大模型,阿里云全部欢迎和支持,共同建设一个最大的大模型自由市场。我们希望所有大模型都能跑在阿里云上,跑得更快、更便宜、更安全。也因为此,阿里云率先开源7B、14B模型,并将持续开源开放,为开源社区贡献力量。(中新经纬APP)

【编辑:郑铮】