“一年时间涨10倍,我认为这事就成了。”

11月12日,在2024年百度世界大会上,百度集团创始人、董事长兼CEO李彦宏在演讲中,回忆起半年前与高管们讨论大模型未来走向时的想法。

彼时,百度文心大模型的日均调用量约为2亿次。李彦宏认为,如果在一年时间内,这个数字能跳升10倍,达到20亿,就意味着用户与市场存在刚需,大模型的需求得到验证。

而根据大会上最新披露的数据,如今文心大模型的日均调用量超过15亿次,半年内增长7.5倍,已接近于半年前的预期数字。相较于一年前首次披露的5000万次的数据而言,更是增长约30倍,来势汹汹。

调用量增速迅猛的背后,一方面是文心大模型本身技术能力持续迭代,另一方面,也暗合着当前大模型应用大爆发的趋势。其中,大模型在产业端的落地,是百度持续探索的方向。“过去这一年半左右,我们看到在金融、能源、教育、招聘、公共服务等领域,大模型与场景结合后,在降本和增效两个方面都取得了实实在在的成果。”李彦宏指出。

“大模型正在从技术变革走向产业变革。无数的AI原生应用,正在重新定义我们与数字世界乃至物理世界的交互方式。”在大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖同样表示。在他看来,AI应用正率先在B端爆发。

作为产业端落地的重要行业之一,大模型在金融领域,也正在创造越来越多的增量价值。

大模型深入金融行业

当前,金融行业已成为大模型应用的热门行业之一。

由于金融业具备大规模、高质量的数据资源和多维度、多元化的应用场景,被视为大模型技术应用的最优行业之一。在日前举办的在2024金融街论坛年会上,有专家指出,金融领域是大模型渗透率最高的行业,渗透率超过50%,而智慧销售、智能问答和智能风控是现阶段金融行业最热门,也是应用成熟度最高的AI大模型应用场景。

不过,在拥抱大模型的过程中,由于金融业对准确性、精准性的要求特别高,并对风险外溢的防范要求严格,因此,大模型在金融领域的应用必须经过严格的测试验证,从而确保其能够满足金融业务发展的需要。

与此同时,考虑到实施大模型应用落地需要一定的成本投入,金融机构需要在投入与产出之间找到平衡点,从而确保技术应用的经济合理性。此外,由于金融行业数据的敏感性和保密性,大模型在应用过程中必须严格遵守相关法律法规和监管要求,确保数据安全和隐私保护。

这也为包括百度在内的大模型厂商提出了更高的要求。而作为百度构建智能产业生态的主要依托,百度智能云就此有自己的感受与思考。

“最初大模型兴起时,金融机构可能会追逐新潮,但随着最初的热潮退却之后,本质的问题就会出现,就是它到底价值在哪。”百度智能云金融业务部总经理徐旭直言道,“在这个过程中,大家都在探索,我们的产品矩阵也在不断完善。”

徐旭介绍,自去年开始,百度智能云与金融机构的合作从底层基础设施到上层应用均在升级。今年以来,百度智能云陆续发布金融行业智能体应用“智金”、开元智慧金融解决方案2.0等。前者为金融机构提供智能、高效的辅助工具,助力金融机构增收提效,后者在通用大模型上增强了行业专业性,从而成为最懂行业、最具性价比的解决方案之一。

值得注意的是,在推动大模型落地金融行业的过程中,百度智能云的思路也有变化。徐旭介绍,起初,百度考虑过把重心放在输出基础大模型本身,也考虑过是否去做金融行业大模型,但落地过程中发现对客户来说,性价比不是最高的。“目前看的话,大模型快速落地的过程中,就是一个基础模型叠加专业细分领域重要数据进行精调,然后把需要的产品功能加进去实现,这个速度会更快。”

产业应用提速

当前,百度智能云在与金融机构的大模型产品合作上,已有不错的进展。

在本次大会上,百度智能云千帆大模型平台正式发布“工作流Agent”功能,旨在帮助企业快速开发出面向复杂对话场景的AI应用,快速拥有专业水平的“数字员工”。目前百度智能云正在联合某头部保险集团,基于工作流Agent探索、落地车险续保售前数字员工。

在与泰康保险的合作中,百度智能云和泰康科技基于百度智能云知识管理平台“甄知”打造了私有化、新一代的泰康知识中台,把泰康过去沉淀的行业知识、多源异构数据接入进来,基于大模型能力,将企业知识在内部更高效地流动,为业务创造价值。

据介绍,作为金融保险行业的头部企业,泰康保险内部系统繁多,知识分布在不同的系统中,知识生产、获取效率较低,员工难以高效应用企业信息资源。通过打造泰康知识中台,泰康的内勤工作人员可以快速获取公司最新的福利制度、通知公告,泰康保险代理人则可以实时获取专业保险理赔建议,获取最新保险政策,实现搜得更全,搜得更快,大幅提高知识获取和办公效率。

在与泛华控股集团的合作中,百度智能云与客户共同打造了保险业AI智能体“度晓保”,基于智金提供的智能对话、智能获客、智能营销等能力,在规划决策、长短记忆、外联协同、金融输出等方面做了“最后一公里”优化。

据介绍,“度晓保”能提供专业的产品解读、产品对比、产品脑图等,大幅提升了保险销售人员的专业性,条款收录、问答准确度达到90%以上;可以在几分钟内快速完成不同保险产品间的对比与建议书,方便保险从业者为客户推荐更匹配其需求的产品;还能快速生成专业的面客营销话术和营销文章,让保险销售人员可以更高效地经营私域,沟通与回复客户,销售人员产能增加20%以上。

需要注意的是,这些还仅仅是个开始。随着百度智能云面向金融行业的产品矩阵不断丰富,徐旭认为明年有望成为一个转折时点。

“明年对于大模型而言,应该是真正开始去构建行业价值和产品价值的阶段,会是一个行业价值兑现的时期,”徐旭判断道,“无论是百度自己的方案或是合作伙伴生态,都能够将产品价值更明显地实现出来。”

十万卡部署能力保障

大模型在落地的过程中,算力是个绕不开的话题。

沈抖指出,由企业级大模型工程平台、异构算力平台组成的新型AI基础设施,将替代传统云计算,为大模型应用在企业生产力场景中的规模落地提供关键支撑。

为了满足企业落地大模型从集群创建、开发实验,到模型训练、模型推理的全旅程算力需求,百度智能云推出百舸AI异构计算平台 4.0,目前已具备了成熟的10万卡集群部署和管理能力。

其中,在算力供给方面,百舸平台兼容昆仑芯、昇腾、海光DCU、英伟达、英特尔等国内外主流AI芯片,帮助中国企业摆脱单一芯片带来的高溢价和供应链风险。同时,百舸能够将两种芯片混合训练大模型的效率折损控制在5%以内,达到业界领先的水平。

对于金融机构的需求而言,这样的算力能力已绰绰有余,甚至是“降维打击”。“国内头部的金融机构最大的需求量大约也就是大几千卡规模,”徐旭指出,“从这一点而言,理论上我们具备十万卡集群纳管和调度的能力,去做千卡的话,无论是故障率或异构复杂度,甚至跨集群跨地域的能力等都毫无问题。”

这一点,从百度智能云与中国邮政储蓄银行的合作可见一斑。

据介绍,邮储银行拥有近4万个网点、6.5亿用户和18亿账户,“毛细血管”非常发达,希望用战略入脑进行全局化数字化转型,建设支持全行业务系统智能应用的AI PaaS“人工智能大脑”,对各类模型应用整体统筹、规划,提升各金融场景的模型开发及训练能力。

2023年,为加速大模型应用落地,邮储银行新增大量来自不同厂商的GPU资源,基于大模型为18个核心业务系统、30多家分行的金融业务提供AI赋能。在百舸平台的支持下,邮储银行顺利完成了不同型号GPU资源的部署、上线。

在这个过程中,邮储银行还实现了GPU、CPU算力的规划重组,有力保障了300多个大小模型、6000多次训练任务。模型迭代时间也从过去的一个半月大幅缩短至半天,并实现了更好的模型效果。

也正是在高效的算力基础设施保障下,通过引入百度智能云 AI 中台解决方案,邮储银行构建了国内大型商业银行中首个落地的全行范围统一机器学习平台“邮储大脑”,并持续进行平台升级、拓展场景建设,借助生成式大模型能力,孵化出测试用例分类、货币交易机器人、金融领域对话生成、金融领域辅助文档分析、金融领域投诉分析等AI原生应用。

目前,邮储银行零售信贷自动化审批判断处理从5分钟压缩至10秒以内,实现了以天为周期的模型迭代;支持信用卡、个贷等零售业务约14亿账户的风险分池建模,模型迭代时间从43天缩短到10小时;对信用卡亿级别样本的数据清洗和分析时间从月级别、周级别压缩至小时级别,提升数据处理工作效率;AI平台集群支撑18个核心业务系统、3大主管部门、14个支撑业务部门、30余家分行,成为行内智能化战略规划推进的中枢。

徐旭指出,尽管目前大模型的落地尝试更多聚焦在金融机构的对内赋能上,未来等待时机成熟时,大模型也可能切入直接面客的核心场景,从而有潜力发挥更大的价值,为金融机构带来降本增效的核心收益。