打开网易新闻 查看精彩图片

去年有个团队在Cursor上烧掉了每月1.2万美元的API账单,而他们的代码库其实只有15万行。钱去哪了?全喂给了那些AI根本用不上的import语句和注释。

这不是个例。当你对着Cursor说"修一下登录bug"时,后台正在发生一场荒诞的资源错配:AI被塞了几十个文件,却对你真正的数据库结构、中间件逻辑、测试模式一无所知。它是在95%的盲区里做决策。

Entroly的创始人Juyterman1000(GitHub用户名)把这个困境拆解成了一个数学问题。不是"找最相似的文件",而是"给定token预算,什么是最优的代码片段组合"。

用信息论给代码"称重"

用信息论给代码"称重"

他们的解法借用了香农熵(Shannon entropy,信息论中衡量信息不确定性的指标)。每段代码被打上一个分数:复杂逻辑、独特算法得高分;样板代码、注释、重复import得低分。

公式看起来唬人:H(X) = -Σ p(xᵢ) · log₂(p(xᵢ))。但核心直觉很简单——AI需要的不是更多文本,而是更多不确定性。一段if-else套三层的业务逻辑,比一百行自动生成的CRUD代码更值得占用上下文窗口。

打开网易新闻 查看精彩图片

代码不是孤立的。auth.py依赖auth_config.py,API路由调用models.py里的函数。Entroly把这些依赖关系织成一张图:当一个片段被选中,它的上下游节点会获得相关性加成。

这变成了图约束背包问题(graph-constrained knapsack)——理论上NP-hard,但真实代码库的图结构通常足够稀疏,让求解变得可行。

拉格朗日乘数法砍预算

拉格朗日乘数法砍预算

真正精巧的部分是对token预算的硬性约束。他们用了KKT条件配合二分搜索,寻找最优的阈值th*:

f(th) = Σᵢ σ((sᵢ − th) / τ) · tokensᵢ − B = 0

30步迭代后得到精确的拉格朗日乘子,再贪婪填充硬预算。同一个sigmoid函数σ(·/τ)既出现在前向选择,也出现在REINFORCE策略梯度的反向传播里——训练时和推理时的数学结构完全一致,没有常见的"训练-测试不匹配"问题。

打开网易新闻 查看精彩图片

结果是一种分层视图:AI能"看到"全部500个文件,但重要的那些给完整源码,剩下的只给摘要。就像人类程序员扫一眼项目结构,然后把火力集中在关键模块。

自进化的上下文选择

Entroly还埋了一个反馈回路。每次AI生成响应后,系统会评估这次上下文选择的效果——生成的代码是否被采纳?后续编辑幅度多大?

这些数据回流到模型里,让上下文选择策略随时间自动优化。不需要人工调参,不需要写规则,系统自己学会"这个项目里,测试文件通常比文档更重要"或者"这个团队的utils目录其实全是核心逻辑"。

安装只有两行:pip install entroly,然后entroly go。MIT协议,代码在GitHub上。

他们的基准测试数据很直白:78%的API成本下降,同时代码生成的采纳率反而上升。省下来的钱和提上去的效率,来自同一个源头——停止让AI在信息垃圾堆里翻找答案

这个案例戳中了一个被忽视的真相:大模型上下文窗口的军备竞赛(200K、1M、2M token)解决的是"能不能塞进去"的问题,但"塞什么"才是更关键的杠杆点。Entroly用优化理论把这个杠杆做成了可量化的工程。