“行业观察者”是我们针对人工智能、XR、元宇宙和Web3等前沿科技而设立的专栏,主要分享这些领域中的新兴企业或者创业者们的故事。这家公司成立不到两年便完成了2.5亿美元的A轮融资,现估值超20亿美元,其首个生成式AI模型甚至一度超越传统的Transformer大模型。以下是我们的第43期内容,以下Enjoy。
近年来,Transformer架构已成为引领生成式AI进步的核心力量,并推动了ChatGPT、Sora、Gemini等大语言模型的成功。
然而,随着模型体积的不断膨胀,计算数据也随之变得庞大起来,这导致训练成本急剧上升。此外,传统的Transformer模型在长序列建模、实时响应需求及设备部署的灵活性上也暴露出了明显短板。
为了解决现有模型在长序列处理、高计算成本等方面的局限性,创始团队于2023年成立了Liquid AI。
最近,Liquid AI完成了由芯片制造商超微半导体公司(AMD)领投的2.5亿美元融资,这笔资金将用来扩展其计算基础设施并加快边缘和本地产品的准备。
01.
1分钟项目速览
1.项目名称:Liquid AI
2.成立时间:2023年
3.产品简介:
Liquid AI专注于为企业和开发者提供数据分析和决策的AI解决方案。
4.创始人团队:
CEO:Ramin Hasani
CTO:Mathias Lechner
CSO:Alexander Amini
联合创始人:Daniela Rus,MIT CSAIL主任
5.融资情况:
2023年5月5日,完成了由OSS Capital L.P.领投的560万美元种子轮融资;
2023年12月1日,完成了由OSS Capital L.P.、Stephen Pagliuca、The Pags Group领投的3760万美元的种子轮融资;
2024年12月13日,完成了由AMD Ventures领投的2.5亿美元的A轮融资。
02.
超越传统架构
Liquid AI创始团队的四名成员来自麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)。其中,Daniela Rus是CSAIL的主任,Ramin Hasani在加入MIT CSAIL之前曾是先锋集团的首席人工智能科学家,均有着丰富的科研和行业经验。
Liquid AI的成立初衷是通过创新的AI技术,为企业提供高效、可解释且适应性强的AI解决方案,推动AI技术在各个行业的广泛应用。
凭借其核心技术液态神经网络(LNN)和基于LNN的液体基础模型(LFM),Liquid AI在AI领域具有强大的竞争力。
LFM系列包括LFM-1.3B、LFM-3B和LFM-40.3B三个不同的版本,它们的共同特点是高效、低内存占用,并在多个基准测试中超越了同等规模的Transformer模型。
Liquid AI的成功也离不开其独特的商业模式。
公司致力于为企业提供定制化的AI解决方案,可以帮助企业根据自身需求选择适合的LFM模型版本。这种灵活的商业模式使其能够更好地满足不同行业和企业的多样化需求。
同时,LFM模型在资源受限的环境中表现出色,能够显著降低企业的计算成本和对云计算资源的依赖,这对于许多中小企业和初创公司来说具有很大的吸引力。
因此,该公司凭借其创新的技术、高效的性能和灵活的商业模式,成功与NVIDIA、AMD、Apple、Qualcomm和Cerebras等多家硬件制造商合作,以优化其模型的硬件部署。
03.
核心技术:液态神经网络
液态神经网络(LNN,Liquid Neural Network)是一种时间连续的递归神经网络(RNN),能够按顺序处理数据,保留过去输入的记忆,并根据新输入调整其行为。
其灵感来源于秀丽隐杆线虫的神经系统,该生物虽然只有302个神经元,但具备了感知、觅食等复杂的智能行为。Liquid AI的研究人员通过模拟这种线虫神经系统中相互连接的电信号,来预测网络随时间的行为。
LNN通过引入创新的动态权重更新机制以及基于非线性微分方程的连续时间建模策略,成功地打破了传统Transformer模型的固有局限,展现了其在处理复杂任务时的显著优势。
在传统Transformer架构中,一旦模型完成训练,其权重便被固定下来,这意味着模型在处理后续数据时,其适应性受到了一定程度的限制。它难以根据数据的变化实时调整内部结构,从而在处理那些动态性强、模式多变的数据集时可能会遇到挑战。
相比之下,LNN则展现出了更高的灵活性和适应性。
它能够根据输入数据的实时特征动态地调整网络参数,这种能力使得LNN在面对复杂多变的数据环境时能够表现得更加出色和稳健。
无论是数据的分布变化还是特征模式的转换,LNN都能迅速响应并作出相应的调整,从而确保模型始终能够保持较高的预测准确性和泛化能力。
此外,LNN还巧妙地融入了基于非线性微分方程的神经建模方法。
这种方法通过模拟神经元的连续时间动态行为,为模型赋予了捕捉更加细腻和复杂特征的能力。它不仅能够帮助LNN有效地捕捉短期内的数据特征变化,还能够在长序列建模中展现出卓越的性能。
这意味着LNN在处理那些需要长期记忆和复杂模式识别的任务时,能够比传统Transformer模型表现得更加优异。
Liquid AI基于LNN技术开发了液体基础模型(LFM,Liquid Foundation Models),旨在处理各种类型的顺序数据,包括视频、音频、文本、时间序列和信号。
其技术特点为:
非Transformer架构:LFM的核心是自适应线性算子,与Transformer的自注意力机制不同,LFM采用更加灵活的结构化算子。
高效内存使用:LFM在处理长序列数据时显著降低了内存占用。例如,LFM-3B在处理100万个tokens时仅需16GB内存,而其他同类模型如Llama 3.2则需要超过48GB。
多模态数据处理能力:LFM能够处理多种类型的连续数据,适合多模态应用场景。
自适应性:LFM的设计允许根据不同的模态和硬件需求进行定制,具有更广泛的应用前景。
LFM的非Transformer架构使得其在内容使用和计算效率方面表现出色。
04.
合作开发边缘AI解决方案
近年来,边缘人工智能(Edge AI)技术日益受到业界的广泛关注。
其独特优势在于能够依托安装在设备上的计算能力,即时处理来自摄像头、物联网传感器等边缘设备的数据。通过将AI算法部署至设备附近,边缘AI实现了实时数据分析与决策,有效降低了与远程服务器的通信开销。
这一技术潜力巨大,有望在自动驾驶的地面及空中交通工具、店内顾客行为分析的摄像头监控、以及工厂生产线的异常检测等多个领域发挥重要作用。
伊藤忠テクノソリューションズ株式会社(CTC)是位于日本领先信息技术服务的总部,将利用Liquid AI的机器学习技术开发边缘AI解决方案,在边缘端实时处理海量数据,以实现地面与空中交通工具的稳健自主导航。
值得注意的是,Liquid AI的LNN凭借其卓越的灵活性与适应性,能够在未知环境及面对未预见情况时表现出色,尤其适用于无人机和自动驾驶车辆的自主导航。
相较于传统大型神经网络模型(往往需要数百万个参数以处理高维视觉数据),LNN仅需少至1至3个数量级的参数即可完成同等任务。
其小巧的体积与高效的算法使得LNN能够在靠近用户的边缘设备或小型计算机上流畅运行,从而大幅降低AI基础设施的成本,同时减少能源消耗与二氧化碳排放。
此次合作是CTC于2023年4月启动的北美合作伙伴计划(NAPP)的一部分,该计划旨在加强与海外初创企业的合作关系,共同探索创新机遇。
展望未来,Liquid AI将继续与CTC等企业进行深化合作,不仅进行LNN技术的概念验证(PoC),还将探索数据分析、电力节约以支持大型AI系统运行等服务的技术验证,共同推动边缘AI技术的边界,引领行业前行。
1. https://finance.yahoo.com/news/liquid-ai-secures-250m-funding-125412813.html
2.https://pulse2.com/liquid-ai-250-million-series-a-raised-for-scaling-capable-general-purpose-ai/
3.https://www.liquid.ai/
【声明】:未经允许严禁转载,如需转载请联系我们,文章版权和最终解释权归元宇宙之心所有。
最新行业深度研究报告发放中! 资本实验室全新发布37页量化报告《2023全球区块链应用市场暨产业图谱报告(2023)》,收录1000+应用案例 ,探索区块链应用趋势 ,入群即可免费领取。
盘点造型奇异的机器人
这些你都见过吗?
OpenAI首席执行官最新博文:第一批AI代理将在2025年“加入劳动力大军”
谷歌前CEO创立的AI量子公司估值已达56亿美元,Meta首席科学家Yann LeCun力挺
2025年塑造未来的12个预测:人类将迈向超级人工智能
热门跟贴