当大模型落地如火如荼,AI对物理世界的渗透还方兴未艾,整个计算架构也在发生根本性变化。作为背后的AI云大厂,阿里云正全力冲刺,准备成为这场AI盛宴里的基建赢家。
在9月19日云栖大会上,阿里云CTO周靖人开篇立意地表示,阿里云正在围绕AI时代树立AI基础设施的新标准,他随之祭出三张“王炸”--升级的大模型和硬件平台,以及降价政策。
过去两年,模型的尺寸已增长数千倍,模型的算力成本却在持续下降,企业使用模型的成本也越来越低。AI的加速渗透,带来了巨大想象空间,阿里云董事长吴泳铭判断,生成式AI将提高整个世界的生产力水平,“这种价值创造,可能是移动互联网连接价值的十倍、几十倍”。
但他指出,下一代模型需要具备更大规模、更通用、更泛化的知识体系,全世界先进模型竞争的投入门槛将达到数十亿、数百亿美金的级别。如此量级的投入,似乎让生成式AI成了大厂的“专属”。
为了加速AI渗透普及,推动真正通用人工智能时代的到来,周靖人在大会现场宣布通义旗舰模型Qwen-Max升级,性能接近GPT-4o;同时发布最强开源模型Qwen2.5系列,成为仅次于Llama的世界级模型群。
阿里云方面表示,此次共开源语言、音频、视觉等100款模型,创造大模型开源史上之最,让企业和开发者以低成本的方式用上大模型。
在加码开源吸引开发者的同时,阿里云再次祭出价格牌,宣布通义千问三款主力模型大幅降价,最高降幅85%,百万tokens价格低至0.3元。其实在过去的半年,阿里云百炼平台已经降低大模型调用的门槛,推动大模型的普及。
据悉,中国一汽、联想、微博等30多万企业客户已经接入通义大模型;未来,生物医药、工业仿真、气象预测、游戏等行业还在加速拥抱大模型,将带来新一轮的AI算力增长。
阿里云副总裁张启向华尔街见闻表示,“现在的AI相当于1996年左右的互联网,那时候上网资费非常昂贵。后来当运营商大力搞基建,才让网络普及成为可能。现在我们也在疯狂搞AI大基建,把资费降下来,才有可能去谈未来应用的爆发”。
更强的模型、更低的价格,周靖人强调这是AI基础设施全面革新带来的技术红利。冰面下,一场以AI为中心的技术架构变革,正在快速浮现。他向华尔街见闻表示,因为AI基建的重要创新,才让今天大模型的训练和创新变成了可能。
周靖人指出,不同于传统IT时代,AI时代对基础设施的性能、效率要求更高,CPU主导的计算体系已快速向GPU主导的AI计算体系转移。张启向华尔街见闻透露,整个市场上新增的算力需求,AI占比已经超过了50%,“这个速度非常之快,而且会不断持续”。
为了牢牢跟随市场走向,周靖人表示阿里云会持续投入先进AI基础设施的建设,加速大模型走进千行百业。
为此,阿里云以AI为中心,从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系全面升级。
周靖人在现场展示了全系升级的产品家族,包括磐久AI服务器、GPU容器算力、为AI设计的高性能网络架构HPN7.0、支持高数据吞吐的CPFS文件存储、以及实现了万卡级训练推理调度的人工智能平台PAI。
云厂商拥有全栈技术储备,并通过基础设施的全面升级,让AI训练、推理、部署和应用整个生命周期变得更高效。周靖人表示,“为应对GPU算力的指数级增长需求,尤其是即将爆发的推理市场,阿里云已经准备好了”。
百模大战一年后,应用成为了大模型产业的主旋律。作为最早提出模型即服务(MaaS)理念的企业,阿里云一直把大模型生态的繁荣作为首要目标。
“我们希望企业和开发者能以最低的成本做AI、用AI,让所有人都能用上最先进的大模型。”周靖人说。
热门跟贴