5月12日,LLM工具链发布0.32a2版本。这次更新塞了不少实用功能,但最值得关注的变化藏在接口层:大多数具备推理能力的OpenAI模型,现在默认走/v1/responses端点,而非沿用多年的/v1/chat/completions。

这个改动直接影响GPT-5级别模型的交互方式。新端点支持工具调用之间的交错推理(interleaved reasoning),简单说就是模型在调用外部工具时,思维过程不再黑箱。用户现在能看到被总结过的推理token,系统会用不同颜色把它们和标准输出区分开。

打开网易新闻 查看精彩图片

如果你嫌这些信息干扰视线,命令行提供了两个开关:-R或--hide-reasoning,一键隐藏。

打开网易新闻 查看精彩图片

这次更新还顺带修复了1435号issue。从版本号里的"a2"能看出,这仍是alpha测试阶段,功能可能还有调整。

打开网易新闻 查看精彩图片

项目维护者Simon Willison近期更新频繁。就在本周,他还发了xAI与Anthropic数据中心交易的分析笔记,以及Claude 2026编程直播的全程记录。另一条值得玩味的动态是:他在6号写道,"氛围编程"(vibe coding)和智能体工程的边界,正在以他不太喜欢的方式快速靠近。