打开网易新闻 查看精彩图片

在评价自身的模型能力或性能时,很多人都倾向于说自己“泛化能力好”或“泛化性强”。

但具体什么是泛化能力?泛化能力和模型性能又有着怎样千丝万缕的联系?如何提升模型的泛化能力?关于这几点,很多人想问,却很少找到答案。

如果你也好奇,下面不妨跟着司普科技1号解说员小司一起来看看。

什么是泛化能力?

什么是泛化能力?

泛化能力,译自Generalization ability,常指大模型在训练数据集之外的新数据、新场景、新领域中的预测和处理能力。

简单来说,就是硅基大脑发现训练数据的规律共性后,能在新数据中举一反三的能力。

因为这种特性,泛化也被视为一种迁移学习能力,用于将预训练中学到的经验规律、知识策略等迁移应用到崭新、未知的场景中,提升大模型的普适性。

在实际应用中,针对机器学习模型在不同领域和场景中的泛化能力,也有人将其划分为组合式泛化、结构泛化、跨任务泛化、跨语言泛化、跨领域泛化等多种,以凸显AI大模型在不同知识组合、结构、任务、语种、领域中的适用性。

从整体看,泛化虽然只是大模型能力上不起眼的一环,但它的存在,为大幅减少重复训练的时间和成本,拓展大模型应用场景打下了基础。

泛化能力和模型性能的关系?

泛化能力和模型性能的关系?

泛化能力验证和评估着大模型在训练数据集之外的新数据中的表现,所以一直被视为衡量机器学习模型性能的一大指标。

现阶段,模型泛化能力好,说明大模型在训练集和测试集上都能保持较高的性能水平,适用性广。

而泛化能力差,则说明大模型在真实使用场景中,很难保持在训练数据上的高水准,可能因表现不佳,限制后续的用途。

所以,大多数模型产品都倾向于努力增强自身的泛化能力,以提高在真实应用场景中的适用性。在这其中,以发展通识能力为主要目标的通用大模型,对模型泛化性尤其重视。

不过大模型即便能做到面面俱到,也很难做到样样精通。

在实际应用中,虽然通用大模型覆盖面广,但专业领域因存在知识技术壁垒,在提升模型在特定领域、任务或场景中的应用效果时,人们在通用大模型基础上,通过业务适配和微调提升行业大模型的精度和效度,显得更为常见。

而行业大模型,虽在垂直领域的泛化更有优势,但在通用领域则往往泛化能力不足。

以上使得大模型在专业性与泛化性方面显得难以兼具。而双方为增强自身的泛化能力,也在持续拓展各自的能力和知识边界。

如何提升模型的泛化能力?

如何提升模型的泛化能力?

因为泛化能力,很大程度上源于将训练掌握的知识规律应用到新数据中,所以在前期训练的数据体量、质量和丰富性上下功夫,让模型学得“更多、更好、更杂”,以应对后期可能遇上的各种未知任务,成了很多人提升模型泛化能力最直接的方法。

从结果来看,随着训练集规模越大、覆盖面越广、内容越多元,“博学”的大模型,在后期应对和处理新数据时,的确看起来更有保障。

不过,在上述思路下,模型的参数量会攀升。而且,通过上述方式提升泛化能力,其中一个很重要的前提就是:

训练数据的拟合度良好。当存在欠拟合或过拟合,即便数据有增强,依然会影响模型性能和泛化能力。

所以目前,业界很多人几乎把提升模型泛化能力和保障训练数据的合理拟合度强关联。而避免数据集过度拟合,无法泛化到新数据,自然成了提升模型泛化能力的一大突破口。

关于如何避免过拟合,此前我们曾专门分享过(什么是过拟合?如何有效避免?回应来了)。比如正则化、早停法等都被视为有助于机器学习模型更好地泛化的方法,它们的实现途径都是避免数据过拟合。

只是,正则化采用的是控制模型复杂性,防止过拟合。而早停法采用的是当准确度不再提高当即停止训练,减少过拟合。

除了以上这些,模型微调,也能一定程度上提升通用大模型在垂直领域的泛化能力。只是除了训练数据,还可能涉及模型结构、参数、学习策略等多方面的调整。

模型大小决定泛化能力?

模型大小决定泛化能力?

之前曾听过“AI小模型泛化能力差,大模型泛化能力更好”类似的评价。

那么泛化能力和模型大小是否直接相关呢?

关于这点,上面我们有提到:当模型训练时吸收的数据量越大、质量越高、种类越丰富,且数据拟合度良好,是有助于模型更好地泛化的。而满足这些条件的模型,参数量(即模型大小)一般在百亿千亿级别。

不过,反过来看,只满足参数规模,却不谈其他条件(如数据质量、拟合度、训练程度等),泛化能力是好是坏就难说了。

而且,模型的泛化能力,并非指向全维度,也往往表现在不同知识组合、语言结构、任务目标、语言版本、领域中的适应性,它的能力范畴也比人们想象中广。

另外,模型的泛化能力和学习策略等也有关系。比如在小样本学习中,虽然实际给到的样本量不多,但前期通过优化特征提取和数据增强等技术,也可能提升模型在同类型任务中的适用性和泛化能力。

以上这些,推动着人们持续去发现和探索提升大模型泛化能力的方法,以推动AI在更大范围内的商用落地机会。

备注:本文原创,首发司普科技,有参考datalearner、rudderstack等,仅做分享。