话说,大模型火爆两年来

第一批被“气死”的人

都已经“头七”了

打开网易新闻 查看精彩图片

有人说,不至于吧

俺看各家发的大模型都挺厉害的

个个天赋异禀,牛掰三连

打开网易新闻 查看精彩图片

您说的没错,在很多通用场景

尤其C端娱乐、陪伴、效率提升等应用

大模型们这两年干了不少“人事儿”

打开网易新闻 查看精彩图片

可一旦到B端严肃场景,就不一样了

比如,有人把大模型接入ERP、BI系统

搞点严谨的数据分析、成本核算

分分钟给你整成一团乱麻

让你不得不从头核对,比自己算还累

打开网易新闻 查看精彩图片

还有人拿大模型做了招标助手

指望它能读标书、写标书

结果,看错了标底、写错了应答

本来能中的标都废了…

打开网易新闻 查看精彩图片

凡此种种“气死人”的案例

皆因通用大模型对行业场景“水土不服”

动不动就出现幻觉、现了原形

打开网易新闻 查看精彩图片

嘿嘿

这么说吧,就目前通用大模型的能力

任何企业都很难拿来直接就用

真气死个人儿,可怎么办呢?

⬇️

打开网易新闻 查看精彩图片

让大模型在企业级严肃场景、垂直场景能够快速落地、把活干好,最有效的方法就是对大模型进行精调(Fine-tuning)。

所谓「精调」,就是把这些看起来有点“气人”的通用大模型,使用特定任务、特定场景的数据,进行再训练或者微调。

打开网易新闻 查看精彩图片

说白了,一方水土养一方大模型,把通用大模型拉回家,喂点我家的专用饲料,搞搞特训,让他们按我们要求的样子“二次发育”。

特训完成后,这些大模型就成了我们的专属大模型,在我们需要的特定业务场景下,也能聪明滴搬砖。

打开网易新闻 查看精彩图片

精调省去了从零开始的时间成本、训练成本,表面上看,对企业好像很简单。

但实际上,每一步都有坑…

01、大模型「精调」,有哪些难点?

01、大模型「精调」,有哪些难点?

首先,已有的预训练模型怎么选?

理论上讲参数越大模型越聪明,可是参数大意味着精调的训练成本会增加,而未来推理部署的成本也会更高。

打开网易新闻 查看精彩图片

第二,一份高质量的训练数据对精调模型达标起着至关重要的作用,但是,高质量的数据来之不易,要经历繁琐的数据清洗和耗时的数据标注。

数据不行,越调越糊…

打开网易新闻 查看精彩图片

第三,虽然精调消耗的算力跟预训练不是一个数量级的,但对企业来说,也是一笔不小的开支。

算力囤少了,精调不够劲儿,算力囤多了,后期就是巨大的沉默成本。

打开网易新闻 查看精彩图片

第四,精调完成,还要把模型部署落地到生产场景,与企业业务对接集成,提供推理服务。

这个环节,同样要考虑部署集成的可操作性,易用性,以及长期运营成本。

一旦搞不好,就可能成为烂尾工程,前面的付出全打水漂。

打开网易新闻 查看精彩图片

怎么样,是不是左右都是难?

直接采用通用大模型,会被各种出乎意料的幻觉“气死”,选择精调后使用,也可能会被这一路的坑儿“气死”。

打开网易新闻 查看精彩图片

02、如何快速搞定大模型「精调」?

02、如何快速搞定大模型「精调」?

怎么破?有人给出了解法,这就是「腾讯云TI平台」。

TI平台是腾讯云面向开发者、政企提供的一站式人工智能开发服务平台。

既可以应用于传统AI/ML场景,也可以应用于生成式AI场景,客户不需要再去找单独的MaaS平台。

打开网易新闻 查看精彩图片

TI平台打通了从数据标注、数据构建,到模型训练、模型评估、模型部署,再到AI应用开发和落地的全流程链路。

并且与鹅厂公有云基础设施(存/算/网/安能力)无缝衔接,开箱即用。

打开网易新闻 查看精彩图片

用TI平台来进行大模型精调,各种难题都可以迎刃而解↓

01、解决模型选择困难症

面对眼花缭乱的各种通用大模型,企业容易陷入到选择困难症。

TI平台预置了鹅厂自研的混元大模型和行业大模型,并优中选优,全面接入主流开源模型,同时提供通用训练框架和推理加速框架。

打开网易新闻 查看精彩图片

更贴心的是,鹅厂刚刚开源了一个“吊炸天”的混元模型:「混元Large」。

混元Large有3890亿总参数量、520亿激活参数量,并支持256K上下文长度,是目前业界参数规模最大、性能领先的开源MoE模型。

打开网易新闻 查看精彩图片

MoE模型也就是专家混合模型(Mixture of Experts),有点像“三个臭皮匠,抵过诸葛亮”。

它把多个擅长不同任务的子模型混合在一起,组成“专家团队”,以此来提供更强的能力。

打开网易新闻 查看精彩图片

MoE模型通过一种叫做门控网络的机制,根据输入数据的特点,来选择激活哪几个专家(子模型)。

由于MoE模型工作的时候通常只激活一小部分专家(比如100个激活2-3个),这可以在显著降低计算量的同时,不影响模型性能。

同时因为“群贤毕至、专家云集”,每个专家各有所长,MoE模型可以处理更加多样化、复杂的输入数据,得到更优的结果。

打开网易新闻 查看精彩图片

因此,混元Large在推理速度和参数规模之间取得了平衡,显著提升了模型的处理能力。

当然鹅厂还注入了一大堆黑科技,比如:高质量合成数据、随机补偿路由策略、KV缓存压缩、专家特定学习率缩放等等。

打开网易新闻 查看精彩图片

测试结果显示,混元Large在CMMLU、MMLU、CEval、AGIEval等多学科评测集以及中英文NLP任务、代码、数学等9大维度表现出色,超越Llama3和Mixtral等主流开源模型。

so,当企业既想更好的模型性能,又想要更低的算力开销,以前没得选,现在混元Large就是终极答案。

打开网易新闻 查看精彩图片

02、解决数据清洗和标注难题

选完模型,下一步要准备精调数据,这个环节有两大难题↓

第一是数据来源和格式各异,不同数据来源和不同业务场景,应该采用不同的清洗手段,不同格式的数据,需要更灵活的存储方式。

打开网易新闻 查看精彩图片

第二是数据标注效率低下,精调数据通常保存在云存储、云文件系统中,传统标注方案往往涉及数据反复来回拷贝,占用额外空间且耗时耗力。

打开网易新闻 查看精彩图片

采用鹅厂TI平台,完全不用担心数据准备环节的难题。

首先,平台预置了一套数据清洗pipeline脚本,这可是腾讯优图算法专家沉淀多年的清洗大模型数据的经验,开箱即用。

打开网易新闻 查看精彩图片

同时腾讯云TI平台的大模型标注工具非常灵活,特色创立了基于schema(数据集的结构和格式)的定义方式,可以完全自定义工作台,让标注更方便。

打开网易新闻 查看精彩图片

由于腾讯云TI平台本身就是云原生的,可以无缝对接用户待标注数据的云文件系统,标注结果直接保存在原文件路径。

标注过程中,不再需要反复拷贝,省时省力省空间。

打开网易新闻 查看精彩图片

03、精调过程稳定高效易用

数据准备好之后,就可以进入具体精调环节。

TI支持低代码、灵活自定义两种精调模式自由选择,并预置了训练镜像,快速发起训练,简单易用。

打开网易新闻 查看精彩图片

精调训练过程中,TI提供了三层保障机制,减少任务中断,提升精调效率。

打开网易新闻 查看精彩图片

同时,TI基于鹅厂自研的“Angel”加速能力,让训练和推理的速度更快,资源消耗更少。

打开网易新闻 查看精彩图片

还有一点也很重要,企业在使用TI实施精调训练时,调用的是鹅厂云端算力,按需使用,不要再自己抢卡囤算力,大大节省资金成本。

而且,TI平台也支持政企私有化部署,全面适配国产算力卡,单平台支持多卡异构纳管,让企业可以有多种选择。

打开网易新闻 查看精彩图片

04、模型效果评估与部署难题

大模型精调以后,效果到底怎么样?会不会还是有点“犯浑”?这事儿不能等精调完再检查,要在过程中就把握好。

鹅厂TI平台提供了一套完善的模型评估体系,从精调的不同阶段定义了「轻量体验、客观评测、主观评测」等“考试环节”,并且支持在精调训练的任一checkpoint进行抽查。

打开网易新闻 查看精彩图片

好,“智商”检测合格,开始部署。

TI内置推理加速器,可达两倍以上加速比,让推理应用跑到飞起。

同时提供统一的大模型调用API和体验工具,大幅缩短业务接驳大模型的周期。

在应用发布环节,TI提供可视化应用编排,并可以纳管边缘集群,通过云端控制边缘服务发布,快速落地生产场景。

打开网易新闻 查看精彩图片

就这样,有了腾讯云TI平台,从模型选择、数据准备,到精调训练、调试评估,再到模型部署和应用,一路畅通。

聪明滴、懂行业、懂场景的大模型,终于有谱啦。

打开网易新闻 查看精彩图片

当然,更靠谱的方案,我留在了最后,那就是——

用腾讯云TI平台精调鹅厂刚刚新鲜开源的「混元Large」MoE模型。

顶流的开源模型+顶流的精调平台,体验更加不一般↓

打开网易新闻 查看精彩图片

目前,混元-Large × TI的强强联合服务,已经在腾讯云上开放,登录TI平台,您可以完成以下目标:

1、通过直接问答,体验Hunyuan-Large的最新能力;
2、构造自定义评测集横评Hunyuan-Large和其他模型;
3、将Hunyuan-Large API接入到自有大模型应用;
4、基于自有数据集精调Hunyuan-Large,以满足垂直场景效果。