如果你最近在Kimi K2.6的Agent模式里敲下"帮我搭个读书笔记网站,带登录和搜索,能导出的那种",5分钟后拿到的不再是一堆需要自己调试的Python代码,而是一个真实可访问的URL。前端、后端、独立数据库、用户账号体系全套齐备,你可以直接把链接甩给朋友,他注册后存入的数据会稳稳地停留在你这套系统的独立数据库里。

比起v0或Lovable这些AI建站工具,Kimi实际上接管了用户从开发到托管、再到数据库运维的全生命周期。但这种体验背后,真正的工程算力挑战才刚刚开始:如果有100万个用户随口说了这句话,就意味着后台要瞬间承载100万个独立的生产级数据库——被真实用户长期读写。在传统数据库的产品形态下,这种工作负载量几乎无法被承接。

打开网易新闻 查看精彩图片

那么Kimi究竟是如何在成本、规模与性能的"不可能三角"中,实现这种"人手一个数据库"的奢侈配置?

拆解Kimi K2.6这个场景的工程约束,有三条特别刺眼的要求。

第一条:数据库实例的粒度,是"每终端用户一个"。十万用户就是十万个数据库,一百万用户就是一百万个。而且绝大多数实例会长期处于极低活跃,用户建完一个站之后可能很久不再打开。按传统云数据库的定价模型,一个最小实例大约每月十几到二十美元,乘以百万,账单天文数字。问题不是数据库贵,是商业模型无法规模化。

第二条:数据库的schema是LLM现场生成的。过去二十年,schema设计是一个需要DBA、需要review、需要版本管理的慢决策流程。在Kimi K2.6这里,schema是LLM对用户一句自然语言的翻译,瞬间就能决定。更棘手的是,用户会继续对话。下一次用户说"帮我加一个收藏功能",Agent又要动一次表结构。这时候数据库里已经有了真实用户数据,schema一旦改错,轻则查询失败,重则数据不可恢复。

第三条:负载分布是"零-峰两极"。大多数站建完就闲置,但只要有一个站被小红书推荐、被X平台热转,瞬间并发可以跳到百倍以上。数据库必须同时扛住"绝大多数近乎零、少数瞬间爆量"的极端曲线,而且要做到爆量租户不能拖垮其他所有租户。

这三条合在一起,在传统数据库的产品形态下几乎是做不出来的。

路径A:单实例+schema隔离。几百个租户行,几万个直接打爆查询规划器。爆款站还会连累所有邻居。Kimi工程团队实际测过这条路:用一个大型PostgreSQL实例做多Schema隔离,单实例在万级规模时就开始扛不住。

路径B:一个用户一个RDS实例。不管是RDS还是Neon/Supabase这种Serverless PG包装,本质都是为每个用户分配一个真实的PostgreSQL实例;到百万级租户,单是实例存在的基础月费就已不可接受。

Kimi后端最终落在了TiDB Cloud上,做了三个关键决策。

决策一:极致低成本——用Serverless Cluster的多租户能力,承接"每个用户一个独立数据库"。既然问题出在"每用户一个真实实例",TiDB Cloud引入了一层"虚拟数据库界面"。长尾的、绝大多数时间没请求的租户,平台并不真实分配数据库实例;只在Agent/终端用户实际发起请求的瞬间,由一个常驻的DB Session Gateway维持数据库连接,其他资源全部走弹性供给。落到Kimi K2.6的场景里,这意味着"百万用户的建站后端"在单位经济上跑得通。

决策二:统一技术栈——vector+SQL+JSON把Agent的"写代码"难度压下来。Kimi K2.6建站Agent里,LLM写出来的典型查询经常在一条SQL里同时做多件事:按用户过滤、按标签筛选(JSON字段)、按向量相似度排序、按时间倒序。在分离的栈里,同样的需求要LLM协调三个client、自己做事务、自己做结果合并,错误率会指数级叠加。而在TiDB里,这是一条SQL。统一栈的价值不是"性能更好",而是让Agent有机会把代码写对的前提条件。

决策三:最小化摩擦——Warm Pool+scale-to-zero让Agent在1秒内拿到完全准备好的数据库实例。Agent生成应用时,数据库的创建不能是一个需要等待几分钟的provisioning流程。TiDB Cloud通过Warm Pool预先维护一批已经完成底层准备的Starter实例,Kimi需要新实例时直接从预热池中分配;再叠加Starter scale-to-zero的能力,闲置实例的计算成本可以压到很低。这让一用户一实例不仅在隔离和成本上成立,也在体验上成立。

这不是Kimi一家的选择。今天在TiDB Cloud上新建的集群里,超过90%是由AI Agent直接创建的,而不是由人类工程师创建的,这个比例一年前还远没有这么高。

去年,某全球知名AI Agent平台的AI Agent选择TiDB作为其核心数据层,并在其技术博客和开发者社区公开了架构细节,当时讲的是"Agent用数据库作为工作台"。更早,Dify这家做LLMOps的低代码平台公司,过去为每个开发者租户分配独立数据库容器,规模做到一定程度后扛不住运维,最终把所有租户合并到一套TiDB Cloud上:基础设施成本降80%、运维负担降90%。

数字背后是一批AI Agent团队在各自做完基建选型后,不约而同地走向了同一类架构。Kimi K2.6的这次选型,放在更大的坐标系里看,是一条正在形成的行业曲线上的一个点。