打开网易新闻 查看精彩图片

GitHub Copilot Pro的订阅者里,90%的人只把它当代码补全工具。但有个Kubernetes开发者发现,这玩意能当"模型路由器"用——同一天内切了4个模型,账单反而比单吊一个便宜。

从"选模型"变成"点菜单"

从"选模型"变成"点菜单"

这位叫Sentinel的开发者(对,项目名和作者名混着用)上周做了个实验:用Copilot Pro当hub,按任务难度挑工具。

他的流程很具体——GPT-4.1 mini做初筛代码审查,快且便宜;GPT-5.3 Codex啃架构深度分析;Claude Opus处理复杂逻辑;最后切到Claude Sonnet 4.6收尾。Sonnet 4.6的token消耗比Opus低得多,输出质量却没掉档。

这不是"哪个模型最强"的问题,是"哪个模型最适合接下来20分钟"的问题。

他算过账:连续开发长项目时,这种切换让钱包和心流都更舒服。Copilot Pro的订阅费成了固定成本,边际决策只剩"用哪个"。

Sentinel项目的三个硬决策

Sentinel项目的三个硬决策

这个Kubernetes监控工具最近长了不少肉,作者记下了几个关键转向。

第一刀砍向Grafana/Prometheus。原来的kube-prometheus-stack能跑,但本地环境太重,启动要开三个port-forward。现在Go agent直接通过client-go(Kubernetes官方Go客户端库)抓数据,写进PostgreSQL,自己暴露REST API。没有sidecar,没有scrape,没有基础设施依赖。

第二件事是Helm化。现在一条命令起全套:

helm install sentinel helm/sentinel -n sentinel --create-namespace

Chart里塞了Deployment、Service、ConfigMap,还有个initContainer等PostgreSQL就绪。agent能自动检测InClusterConfig——如果在集群里跑,直接用ServiceAccount,kubeconfig都不用挂。

第三层是 retention 策略。本地PostgreSQL不能无限膨胀,他搞了三档:实时数据、小时聚合、天级归档。每小时跑一次的job自动压缩旧数据,/api/v1/metrics现在能拉历史趋势,不用怕磁盘炸。

今天的主菜:仪表盘撒谎事件

今天的主菜:仪表盘撒谎事件

作者坐下来想"做件小事",三小时后commit log长得超预期。没有一行手敲代码,全是Claude Code(Anthropic推出的AI编程工具)代劳。

但最狠的bug不是代码写的,是仪表盘显示的。

某个面板数字和实际状态对不上——不是数据错了,是聚合逻辑在特定时间窗口下给人错觉。作者管这叫"honest bug":代码没crash,但设计本身在欺骗眼睛。

修复过程用了新workflow。先丢给GPT-4.1 mini扫一遍,确认不是低级错误;再切GPT-5.3 Codex追数据流;最后用Sonnet 4.6重写查询逻辑。全程没换窗口,就在Copilot Pro里点下拉菜单。

他特别提了Sonnet 4.6的惊喜:在Sentinel的连续开发里,推理质量对标Opus,token消耗却低一档。长项目里这差距会累积成真实成本。

结尾没升华,只留了个细节:那个撒谎的仪表盘现在多了行小字,标注数据聚合粒度。用户不会注意到,但下一个调试的人能省20分钟。

如果你也在用Copilot Pro,你试过把它当模型hub而不是代码补全器吗?