沿着“最小阻力”路径,才能抓住大模型这一最大红利。
· 来源:轻金融 作者:李静瑕
“所有事物(水流、能量)的发展,都是沿着最小阻力的方向前进”。《最小阻力之路》一书如是指出。
实际上,多数技术创新的共同点正是沿着最小阻力前行,只有“最小阻力”才能惠及行业的大多数。当下,AI大模型技术发展日新月异,大模型爆发的“最小阻力”路径在何方?
金融机构需要的是“AI普惠”,即先选择技术组合的最灵活的模式,来快速获取大模型带来的技术红利,然后再逐步扩展或深入。这与“最小阻力”的规律异曲同工,能够让AI技术普惠到各种类型的金融机构,提升新质生产力。
01
金融大模型重塑价值链
如果把大模型比喻成一种新型的能源,那么只有“大模型+应用场景”深度融合才能让企业运营的发动机运行起来。
随着人工智能已上升为国家战略,大模型已经成为当前最大的技术红利之一。就金融业来看,据监管部门数据,目前中国内地金融业总资产约490万亿元,银行业、保险业规模分列全球第一和第二,是金融强国的关键核心要素之一,这为AI与金融的结合带来了更大的想象空间。
从大模型在金融行业的落地场景看,已经深入到了前中后台的各个环节中。大模型在内部提效、价值创造、乃至价值变现等多个方面都对金融机构的价值链进行重塑。
在价值创造方面,金融大模型用于营销等关键金融场景带来新的客户,带来金融机构直接的收入增长;在风险方面,更加精准地降低风险,降低人工成本;在内部运营管理方面,大大提升了办公、研发等效率。
当然,金融机构在享受显著价值增益的同时,也将面临一系列不容忽视的挑战。这些问题不仅关乎技术层面的可行性与稳定性,更延伸至合规、安全、伦理等多个关键维度,对金融企业的稳健运营与长期发展构成潜在考验。
大模型的价值重塑,需要合力。11月28日,重庆市经济和信息化委员会主办的“2024数字产业生态伙伴大会”上,马上消费发布了创新产品天镜大模型2.0,并与阿里云等多家机构在AI领域达成多个战略合作。
2024年8月,马上消费发布了全国首个零售金融大模型“天镜”,具备自然语言理解、生成、交互的能力,能够提升公司的精准营销、客户服务以及风险管理等方面的能力。大模型技术正提升零售金融的服务能力。例如,在与用户互动方面,马上消费基于大模型人机互动技术,实现了用户增长和精细化经营。
02
开源还是商业?
自建大模型是选开源还是商业?这是当下市场聚焦的行业之争。
首先,要了解开源大模型与商业大模型的差别。
商业大模型相比开源大模型迭代更快、并且支持升级以及可以定制版本。安全性上,商业大模型一样提供定期更新、bug修复以及新功能推送等。
开源大模型,无法在技术上提供全局能力的支持,开源版本有限,难以为金融机构提供深度的定制。不包含商业产品中的安全和稳定性,文档和易用性支持较弱,模型升级迭代周期一般6-12个月,业务集成应用的时间会更长。
此外,2022年生效的《互联网信息服务算法推荐管理规定》算法新规要求,对具有舆论属性或者社会动员能力的算法推荐服务提供者提出了算法备案的要求。商业大模型已经完成算法备案,而开源大模型没有算法备案,这意味着开源大模型无法用于对客等核心业务领域。
无论在技术支持、安全性以及迭代速度以及核心业务应用上,开源大模型似乎都难以媲美商业大模型。那么金融机构的大模型构建为什么还要将开源大模型纳入考虑之中呢?
这是因为开源大模型有自身的特别优势。一是开源大模型与商业大模型所用的大模型本身是一样的,只是版本不是最新的;二是开源大模型允许用户审查和验证模型的代码和架构,不需要支付额外的许可费用;三是开源社区的技术高效协作能力较强。
开源大模型降低成本投入门槛,能够让金融机构更快地应用到部分场景。这也是当前金融机构,选择从开源入门或辅助构建金融大模型体系的原因。
例如,某大型银行采用“商用+开源”并行路线,实现不同参数、不同能力模型的择优调控,满足金融业务场景复杂多样化的需求。一些城商行利用开源兼容模式,为构建自身的基础大模型提供强大的基础。开源大模型也被用来辅助金融大模型的语言训练等工作。
以代码生成场景为例,当前代码助手已在国有银行、城商行等金融机构落地。通过开源的代码库集成专用代码大模型,能够完成代码相关的辅助工作。当前,某国际大型金融机构通过生成式AI生成的代码,被开发人员的接受率已经达到了40%,开发人员的工作效率得到很大的提高。
“大模型的开放和开源是促进AI技术发展和商业落地的重要手段”,IDC指出。开源大模型对于金融机构而言,可以说是一个入门以及兼容模式打造金融大模型体系的主要助益者。
然而,开源基础大模型对于开发厂商并没有直接的价值回报,开源基模的构建被认为是一项“苦活”。不过一些技术厂商作为“探路者”,一直在开源大模型这条路上坚持。
“开源的模型对于阿里来讲一定是一个会持续坚持的路线方向。”阿里云智能集团副总裁、新金融行业总经理张翅称。
阿里云是国内最早开源自研大模型的头部厂商。2023年8月3日,Qwen-7B&Qwen-7B-Chat开源,到今年6月7日,全球性能最强的Qwen2-72B正式开源,阿里云通义千问开源模型的下载量超过1600万。阿里云也建成了中国规模最大,开发者最活跃的AI社区“魔塔社区”,其模型总量超过5100个,用户超过530万。
03
AI普惠新路径
大模型的开源给AI带来更大的发展空间,也给AI普惠带来了新的路径。
“金融机构在大模型应用落地的过程中,最大的课题是如何在合规的前提下高ROI地落地大模型”,张翅称,即如何在合规、成本、效果三者之间平衡。
图为阿里云智能集团副总裁、新金融行业总经理张翅
他认为,在云数智融合框架下,金融大模型有三种建设模式。一是灵动模式,初步尝试可以先采用API模式,基于通用基础大模型和工具链快速搭建大模型应用。用户仅需关注模型调用与应用开发,无需关注推理平台和基础设施;二是敏捷模式,部分垂直业务场景下,通用基础大模型无法满足精准的推理能力,企业通过模型开发来搭建大模型应用;三是超级模式,自行部署任意模型来满足较高的灵活度需求,金融机构通过自行管理负载、调度大规模集群,来充分发挥异构芯片资源的算力,同时实现自主可控。
金融机构可以根据自身的资产规模、业务结构、科技投入等不同等的资源禀赋来按需选择不同的建设模式,通过不断演进、不断调整实现跃迁。“云上试航、平台筑基、云数智融合”,阿里云认为,金融机构可以通过三大发展阶段,逐步落地大模型应用。
“过去大家还在追求从零开始训练一个全新的领域或企业专属大模型,但现在大多数企业选择拿一部分数据结合开源模型进行二次训练,以微调为主。”张翅称,如果完全依靠自身构建的不同算力的GPU架构体系,成本和时间投入非常高,通过上云可以快速实验各种模型及业务价值
开源基模+公共云/金融云+无敏感数据场景”就是能够让金融机构快速获取大模型红利的灵动模式。
金融机构可以先采用灵动模式,先关注模型调用与应用开发,将自身的资源投入到业务价值的实现上。
模型上,借助开源基模快速对场景落地可行性和模型效果进行验证。场景上,选择无敏感数据的金融场景,避免触碰数据出域等监管合规红线。工具上,按需选择场景所需的技术工具组合。算力上,基于公共云或金融云,能快速给大模型应用的冷启动按需提供算力,通过“以租替买”的算力租赁模式。
金融大模型其更深度的价值创造在于在核心业务领域落地。“开源基模+公共云/金融云+无敏感数据场景”的路径需要进一步演进。
金融大模型有理想的超极模式。首先,算力采用“公共云+金融云+私有化”组合的方式形成多算力布局,以满足不同安全要求的场景采用不同的算力模式;其次“借助开源版模型进行场景验证,使用商业版模型作为上线保障”,模型采用“从开源过渡到商业+大/小模型组合+多模态模型”;再次,平台/工具采用“开源工具+自建+商业化引入”组合的方式按需、逐步来建设;最后,场景落地从非敏感数据领域、提升效率的场景,再向降低风险、价值创造和变现的场景扩展。
金融大模型多元的构建模式,推动了AI大模型普惠。金融机构应该如何抓住机会?
马上消费从开源基模起步,部分场景通过阿里云开源通义大模型+SFT构建了自己的垂直大模型天镜。基于海量真实用户数据和模型精调,让大模型具备专业领域知识、任务指令等生成能力。
在此次会议上,马上消费与阿里云签订战略合作协议,将在AI大模型领域进行更加深度的合作。
“以租替买”、“优化算力调度”,在算力上,一方面以公共云算力应对业务峰值流量,一方面则利用阿里云万卡智算集群算力调度优化的经验,支撑更大的业务规模。未来,阿里云还将为其提供本地异构芯片算力,以满足本地训练推理的大显存、高性能、高性价比等各种需求。
值得关注的是, 马上消费与阿里云的合作是“场景+技术”生态圈全量合作模式。天镜大模型涵盖了营销获客、风险审批,客户运营、客户服务、安全合规、资产管理这六个零售金融最典型的场景,以模型和数据驱动业务,能够为金融机构提供解决方案。
AI普惠促进金融机构抓住技术红利的同时,也将在组织架构、运营模式等方面推进金融机构的深度变革。我们期待乘着AI大模型新的浪潮,数字金融能够前行一大步。
2、
3、
热门跟贴