打开网易新闻 查看精彩图片

3月18日,MiniMax M2.7正式接入Vercel AI Gateway,同时放出两个版本:标准版,以及贵2倍的高速版。后者标称每秒吐100个token——这个数字放在代码补全场景里,差不多是肉眼能感知"跟手"和"卡顿"的分水岭。

这不是MiniMax第一次押注开发者市场。但M2.7的升级清单明显换了打法:软件工程、多智能体协作、端到端项目交付——全是企业采购部门听得懂的词。换句话说,它想从"能写代码"进化到"能当实习生用"。

多智能体不是噱头,是架构重构

多智能体不是噱头,是架构重构

M2.7原生支持多智能体协作(multi-agent collaboration)和复杂技能编排。翻译成人话:你可以让模型同时扮演产品经理、架构师、测试三个角色,自己跟自己开会,最后输出一份能跑的PRD加技术方案。

动态工具搜索(dynamic tool search)是另一个隐藏技能。模型不再依赖预设的工具列表,而是实时检索需要什么、去哪儿找。这对构建自动化工作流很关键——工具链越长的企业,省的手动配置时间越多。

生产调试和端到端交付能力的补强,则直指上一代模型的痛点:写得出代码,搞不定上下文。一个典型场景是,模型能生成迁移脚本,却读不懂现有数据库的隐性约束,最后人工擦屁股。

高速版的定价实验

高速版的定价实验

高速版定价策略很有意思:性能不变,价格翻倍,换的是延迟。Vercel没有公布绝对价格,只给了相对倍数——这相当于把"要不要为速度付费"的决策抛给用户。

每秒100 token是什么概念?按平均代码行长度估算,大概3-5秒出一屏建议。对实时协作工具(比如AI结对编程)来说,这是及格线;对批量跑脚本的后台任务,纯属浪费。

这种分层设计在API市场越来越常见。OpenAI有Turbo和Premium,Anthropic分Claude和Claude Instant,MiniMax的选择是同一模型切两刀——技术债务更小,用户决策成本也更低。

AI Gateway的算盘

AI Gateway的算盘

Vercel把M2.7接进AI Gateway不是单纯做渠道。这个平台的核心卖点是统一API、用量追踪、自动故障转移,以及比原厂更高的可用性承诺。

对企业来说,这意味着不用改代码就能切换模型供应商;对Vercel来说,这是把"基础设施中立性"卖成溢价服务。自带密钥(Bring Your Own Key)功能进一步降低了迁移门槛——你可以继续按MiniMax的原价采购,只把Vercel当调度层用。

智能路由和自动重试机制,本质上是把"模型选哪个"的运维决策自动化。当某个区域节点挂掉,流量秒切备用线路——这对SLA敏感的客户是刚需,对个人开发者可能感知不强。

MiniMax在AI Gateway的模型排行榜上位置如何?官方没给具体名次,只放了跳转链接。这种留白本身也是一种信号:榜单数据还在跑,或者,他们更想让你直接进Playground上手试。

一个细节值得玩味:官方示例代码里,Prompt设计得相当"重"——分析告警日志、关联部署记录、定位根因、提交修复方案。这不是演示用的"写个冒泡排序",而是直接对标SRE(站点可靠性工程师)的日常工作流

M2.7能不能真的替代一次值班?Playground里测十分钟和产线跑三个月,答案可能完全不同。你愿不愿把凌晨两点的告警第一时间丢给它?