对于红帽公司(英文名:Red Hat),开发者们并不陌生,并一直认为其是自由和开源的象征。在生成式AI的发展潮流下,该公司于今年5月举办2024红帽全球峰会,宣布一系列与AI相关的创新,包括RHEL AI、OpenShift AI和红帽 Lightspeed等。

那么,红帽如何以开源的方式将AI带入企业?2024年6月13日下午,红帽举办媒体Open讲活动,针对上述问题给出了企业回答。

开源和混合云,是未来AI的发展方向

自大模型兴起以来,相关领域对于未来的AI应该是开源还是闭源这一问题的讨论,始终不绝于耳。

作为一家开源解决方案供应商,红帽自始至终都属于坚定的开源派。简单来说,其认为在闭源环境中,AI可能会存在诸多限制和一些安全隐忧,但在开源环境中,就能够借助整个社区的力量,快速找出并解决相应的问题。

与此同时,该公司也提出混合云的概念,希望结合开源环境,将当下越做越复杂的模型变得轻量化。

“用一大堆GPU做算力,而且放在‘云’上做,我觉得是非常浪费资源的一件事。”红帽全球副总裁兼大中华区总裁曹衡康(Victor Tsao)表示,红帽认为未来整个AI更适合在混合云上做。

打开网易新闻 查看精彩图片

图丨曹衡康(Victor Tsao)(来源:资料图)

“也就是说,模型既可以在所谓的‘云’上开发,也可以在所谓的数据中心上建模。甚至在完成建模以后,将这个小语言模型放在一个非常小的设备上就可以运行。”曹衡康说。

在这种情况下,不仅能实现资源利用的最大化,也能最大程度地提高效率,还能避免在云上使用可能会产生的安全问题。

正是结合这样的开源思想和混合云战略,红帽致力于在硬件和应用之间搭建出一个平台,为更多生态伙伴赋能。

具体来说,该公司的企业级AI战略与服务包括以下几个方面:

其一,在AI基础设施层,为企业的AI模型和AI应用提供安全的可扩展基础设施和自动化服务。

其二,在AI平台层,提供领先的AI平台,帮助企业安全高效地部署和管理AI模型和AI应用。

其三,在AI模型层,为AI模型提供多样化选择,提高AI创新的投资回报率。

其四,在AI应用层,提供跨开放混合云的AI赋能的企业应用。

基于上述战略,红帽搭建了一套完整的AI平台方案,以加速AI在企业的应用。

打开网易新闻 查看精彩图片

(来源:资料图)

如何通过开源方式帮助客户建立企业AI应用?

那么,从客户的角度出发,红帽又是如何通过开源方式帮助他们建立企业AI应用呢?

红帽大中华区解决方案架构部高级总监王慧慧(Aella Wang)指出:“我们会建议客户分三步走,并给他们提供一个端到端的AI平台和路径。”

举例来说,如果客户想要搭建一套智能客服系统,第一步需要在资源受限的桌面环境下,采用小数据集进行实验性训练。

在此过程中,所有开发人员都可以在自己的PC工作服务器上用容器化的方式开发AI应用,或利用InstructLab工具完成有关模型的调优工作。(编者注:InstructLab是由IBM和红帽共同创建的开源项目,用于改善大语言模型的对齐度。)需要说明的是,此前,这样的工作无法在一台PC上完成。

在第二步,客户需要通过红帽提供的完整的合成数据生成技术,采用“教师”模型和“学生”模型的训练方法,进行生产级模型训练,并提供基本操作脚本化的工具支持。

而当模型具备一定的可读性和可使用性时,客户需要执行第三步策略,即在更大的分布式集群的规模下,继续进行生产级模型训练。同时充分利用Kubernetes扩展、自动化并实现机器学习运营的全部功能。(编者注:Kubernetes是由谷歌开源的一个容器编排引擎,用于管理云平台中多个主机上的容器化应用。)

在红帽看来,这样一个三步走的方案,可以满足企业用户在不同阶段的需求。

其中,红帽自研的OpenShift AI、Enterprise Linux AI等产品,发挥了关键作用。

例如,作为一款AI平台级产品,OpenShift AI能够让信息技术、数据科学和应用程序开发团队聚集到一个可以开展协作的公共平台,从而解决模型调整和对齐、模型服务和监控、生命周期管理、资源优化与管理等一系列工作。

也就是说,用户可以把自己看中的某个开源基础大模型导入到OpenShift AI中,并在上面准备企业所有需要的训练数据,然后进行模型调优训练。当完成模型训练以后,可以把它部署到OpenShift AI平台上。此时,OpenShift AI主要发挥混合作用,不但可以被部署在用户的资源中心里,还能够被部署在公有云或私有云中。甚至于,用户还能在该平台上开展有关AI应用的开发、测试、调整、上线和运行工作。

作为一款基础模型平台,Enterprise Linux AI则能够联合由IBM开源的Granite语言和代码模型,并通过InstructLab模型对齐,高效增强大语言模型的功能,使其得到广泛的应用。(编者注:Granite是IBM于2024年5月向开源社区发布的一款AI模型。)

与此同时,该产品还能对可启动模型运行实例进行优化。比如,能将Granite模型和InstructLab工具打包成可启动的Enterprise Linux镜像,并针对英伟达、英特尔和AMD的硬件进行优化推理,进而实现在任何地方运行的同时,为OpenShift AI提供规模和生命周期的入口,以及Watsonx用于代理集成和治理。(编者注:Watsonx是IBM于2023年发布的人工智能和数据平台。)另外,该平台还能提供企业级支持、生命周期管理和免责保证。

邀请开源社区参与者共同打造更加完善的工具链平台

如上可以看出,红帽能够为用户在混合环境下创建AI应用,提供所有需要的产品和工具。在这种情况下,开源社区的使用者和参与者是否就能完全“躺平”呢?

对此,王慧慧表示:红帽通过搭建开源社区平台和提供开源工具,打造了一款“1.0”版本的产品,如果所有AI爱好者、开发者和使用者们,能够携手将“1.0”变成“2.0”或“3.0”,我们就会拥有一个更好的工具链平台。

同时,红帽大中华区市场总监赵文斌(Max Zhao)也指出,虽然红帽提供了整套的方法和工具,但用户却不能完全“躺平”。

“他们需要带着自己的场景和经验,参与到模型的调试中,再将模型应用到业务环境中,而且要根据市场环境的变化不断进行优化。这是红帽给予用户的自主权。”他说。

这样一来,企业内部也必须具备一定的AI人才。但在目前,许多企业仍然面临AI人才短缺的问题。

为解决这一局限,红帽开展了两个层面的培训服务,一是概念培训和架构培训,二是建模培训。比如,对于普适性的“AI 101培训”,红帽的咨询顾问会根据每个客户的情况和要求,对其进行包含不同话题的培训。而对于那些涵盖更多技术细节的培训,则会搭配包括授课和动手实验在内的相应课程。

至于培训周期,红帽中国首席架构师张家驹(Jiaju Zhang)表示:“我们通过这一套培训体系,培养了大量实操型人才。他们从完全不懂,到考过红帽认证工程师,再到能干活,可能也就是几个月到一年的时间。”

对于红帽来说,其致力于通过开源技术,让复杂的工作自己做,帮助客户以简单和低门槛的方式解决纷繁多样的AI问题。这也是该公司的使命所在。