Lior Pozin 在2025年初对 人工智能 基础设施有了顿悟。作为 AutoDS 的首席执行官,这是一家基于人工智能的电子商务自动化平台,他推动团队迅速部署人工智能功能,认为速度将决定成功。

AutoDS 是一家自筹资金的公司,最终达到了180万用户,创造了超过10亿美元的收入,并成功出售给了Fiverr。从公司成立之初,它就是一家快速发展的公司,速度是战略,快速实施似乎是自然而然的运作方式。但随着Pozin的团队从试点项目转向生产,他们意识到仅仅依靠速度是不够的。人工智能只有在正确的数据基础和所有权结构到位时,才能 交付结果。

“没有正确的治理、数据组织和访问,人工智能无法扩展,”Pozin对 Fast Company 说。“一旦我们建立了那个基础,一切都改变了。人工智能不再只是一个功能,而是我们运作方式的一部分。”

这种经历并非AutoDS独有。在2025年,各个行业的公司迅速意识到,大规模部署人工智能 需要面对基础设施、对人工智能能力的误解,以及在追求变革性问题之前解决一些不光彩问题的意愿等不舒服的真相。尽管这一年开始时充满了美好的承诺,但结果却更多是与现实的对峙,而非突破。

出现的教训揭示了一个正在成长的行业。行业不再是单纯地构建更强大的模型或筹集更多资金,而是通过弄清楚在演示结束、真正工作开始时,什么才是真正有效的而成熟。

基础设施优先,否则其他都无关紧要

基础设施优先,否则其他都无关紧要

在2024年初,数据库公司 RavenDB 探索与微软合作为其文档构建一个人工智能助手。该项目最终失败了。创始人Oren Eini表示,问题不在于人工智能模型本身,而在于其周围的一切。

数据必须通过多个系统才能到达模型,而更新则需要手动干预。整个设置依赖于脆弱的连接,这些连接随时可能中断。对于一家数据库公司来说,这种讽刺是显而易见的。

这一经历让团队明白了一个重要的道理:人工智能需要更深入地集成到数据库本身中,以便能够可靠、可预测和可扩展。

对于Eini来说,这并不是一次挫折,而是一个信号,表明周围的架构与模型本身同样重要。这一认识影响了RavenDB最近在AI代理及直接构建在数据库层中的能力方面的工作,在这里,模型与其依赖的数据更接近,并且在生产环境中可以表现得更可预测。

在AutoDS,这一转变意味着采取了一种更有意识的方法。团队专注于在他们的直销平台上构建一个共享数据层,并在AI项目周围建立更清晰的责任,这使得像其AI驱动的商店构建器这样的产品能够在业务中更可靠地扩展。

这一转变需要耐心。Pozin的团队停止追逐看起来令人印象深刻的东西,开始关注更重要的指标:节省的时间、提高的准确性和加快的决策。“现在的成功意味着AI真的改善了我们的工作方式,而不仅仅是我们在用它,”Pozin指出。

效率胜过原始力量

效率胜过原始力量

在2025年,虽然AI行业在追求更大的模型和更多的计算能力,Oculeus,一家在AI领域拥有深厚经验的电信软件公司,花了一年时间优先考虑效率。团队专注于设计和优化能够提供可靠性能而不产生过多计算开销的系统。这一重点是Oculeus在电信中应用AI的核心,其系统用于实时检测欺诈模式和异常行为。

在这些环境中,公司的首席执行官Arnd Baranowski解释说:“可预测性比新奇性更重要,因为误报和不一致的输出会带来直接的财务和运营风险。”

Baranowski补充道:“那些伴随着大规模计算和能源消耗的AI算法和技术,实际上是一条误入歧途的路。”他的批评超越了硬件,质疑行业对非确定性系统的接受程度,这些系统对相同输入产生不同输出。“训练必须产生100%确定性的响应。否则,就有问题。”

这种观点与大家对大型语言模型的热情相悖,对Baranowski来说,2025年的教训很简单:AI系统只有在表现一致、在真实操作条件下可靠时,才能赢得信任。

Eini 也分享了这种观点。在 RavenDB,目标不是构建最聪明的 AI,而是构建没有戏剧性的、可预测的 AI。“我们不一定想要‘聪明’的 AI,”Eini 说。“我们想要可预测的 AI。”

随着 计算成本保持高位 和能源消耗成为公众关注的问题,2026 年将有利于那些能够以更少的资源做更多事情的公司,而不是那些仍在追求最大模型的公司。

信任需要边界

信任需要边界

在 2024 年,加拿大航空的聊天机器人向一位客户承诺了一个并不存在的丧亲票价折扣。该航空公司因此被追责。这个案例明确了一个在 2025 年变得不可避免的问题:AI 代理无法像员工那样被信任。

Eini 直言不讳。银行出纳员受政策和后果的约束,而 AI 代理并不受这些约束。“我喜欢把他们看作是我知道容易受贿的员工,”他说。“为他们的行为有意识地设定边界并积极实施保护措施至关重要。”

这些边界变得具体可行。在 AutoDS,Pozin 创建了一个专门的团队来验证 AI 输出并确保系统接收到准确的源数据。在 RavenDB,团队开发并实施了审批链流程,并对 AI 代理可以访问或承诺的内容设定了明确的限制。

这个教训不仅仅是技术保障。AI 代理存在于工具和行为者之间的灰色地带。它们响应指令,但缺乏判断力。它们执行任务,但无法权衡后果。这一现实需要新的问责框架,而不是单纯依赖良好的训练来保证良好的行为。

在 2026 年,蓬勃发展的组织会首先把 AI 部署当作一个信任问题。这意味着要对能力和限制保持透明,为用户设定明确的期望,并设计系统以便在出现问题时安全失败。

解决小问题胜过大跃进

解决小问题胜过大跃进

今年最大的人工智能话题集中在自动驾驶汽车、通用人工智能(AGI)——人工智能科学家扬·勒昆认为这只是个幻觉——以及模型取代整个职业。但真正取得进展的公司则专注于其他方面:大规模解决小而恼人的问题。

“最大的变化将来自于解决许多小问题,而不是依赖一个全知的人工智能,”艾尼说。“数量本身就有其独特的价值,消除许多小摩擦会让整体进展更快。”

RavenDB让普通团队成员在几天内就能构建人工智能功能,而不用等顶尖工程师的批准和执行。AutoDS通过人工智能是否使员工更快、更高效来衡量成功,而不是通过运行多少个人工智能项目。结果虽然在个体上是适度的,但在整体上却是变革性的。

一年前,各公司追逐人工智能本身,推出的试点项目在演示中看起来很不错,但从未真正推广。到2025年,焦点转向可衡量的影响。艾尼把这比作我们今天如何让水变得可饮用,这种做法现在已经很普遍,以至于没人会去想。“就像自动取款机或自助结账服务并没有从根本上改变整个世界,但却使我们的生活可衡量地变得更好,我认为我们会看到很多这样的变化,”他告诉我。“变化的数量将产生变革性的影响。”

准备比应对更重要

准备比应对更重要

史蒂夫·布里尔利在2025年并没有构建人工智能。作为量子计算公司Riverlane的CEO,他注意到当ChatGPT出现时,各行业的准备都很不足。“人工智能热潮暴露了许多行业在像ChatGPT这样的工具突然进入主流时的准备不足,迫使公司在法规、可扩展性、数据准备和整合,以及日益扩大的劳动力和技能差距之间忙碌不已,”布里尔利说。

他的收获是:要尽早理解新兴技术,以便预见挑战,而不是等到危机发生再反应。量子计算将比许多人预期的更早到来,而且这不会是边际改进。“人工智能擅长分析和生成数据洞察,而量子计算将使全新类型的数据的创建成为可能,”布里尔利说。“两者结合将解锁远超技术单独所能实现的探索、发现和创新。”

国际电工委员会副秘书长吉尔·托内特在监管方面也看到了类似的情况。随着2025年人工智能法律的生效,各公司在把法律要求落实到实际操作中时遇到了很多困难。“国际标准对建立人们对这项变革性技术的信任至关重要,”托内特说。

接下来会发生什么

接下来会发生什么

2025年的教训指向一个扎根于实际操作而非炒作的人工智能未来。引领这一转变的公司建立了基础设施,设定了边界,解决了实际问题,而不是一味追逐头条新闻。

但新的挑战正在出现。NTT Data的全球网络安全服务负责人Sheetal Mehta警告说,推动生产力提升的人工智能技术正在被武器化。“代理人工智能的速度和自主学习及决策的能力也可能被网络犯罪分子利用,使企业面临新的攻击面和意想不到的安全漏洞,”Mehta说。

这意味着到2026年,我们不仅需要更好的系统,还需要更好的保护措施。组织需要把人工智能的安全、治理和伦理当作基础,而不是可有可无的选择。

Pozin生动地捕捉到了这一转变。“人工智能的下一个阶段是与我们一起生活、每天学习,并及时提供我们所需的服务。它将不再像工具,而是像一个真正理解你的队友,”他说。

Eini更简单地表达:“超越最初的敬畏,成为一个透明的工具,能够简单高效地完成任务。”

不是AGI。不是完全自动化。只是可靠工作的人工智能,能够可预测地扩展,并在不创造新问题的情况下解决问题。对于一个花费多年追逐月球计划的行业来说,这或许是最雄心勃勃的目标。