moonfdd

moonfdd

关注
67粉丝
61关注
3196被推荐

优质互联网领域创作者

13枚勋章

福大大架构师每日一题
IP属地:北京
更多信息

  • openclaw v2026.5.6 最新更新:修复 OpenAI Codex OAuth 路由、插件请求、调试代理与 Web Fetch 超时问题
    本次版本主要包含以下修复: 1. Doctor/OpenAI Codex:回退 2026.5.5 的 doctor --fix 修复行为 • 纠正此前会把合法的 openai-codex/* ChatGPT/Codex OAuth 路由错误重写成 openai/* 的问题。 • 这个错误可能导致: • OAuth-only GPT-5.5 配置失效 • 用户被意外切换到 OpenAI API key 路由 • 如果 2026.5.5 已经改变了默认模型,需要执行指定命令把默认 agent 切回 Codex OAuth PI 路由。 2. Plugins/runtime fetch:请求头字典中过滤第三方 symbol 元数据 • 在将普通 request header dictionaries 传给 native fetch 或 Headers 之前,先移除第三方 symbol metadata。 • 这样可以避免 SDK 和 guarded/proxy fetch 路径拒绝本来合法的插件请求。 3. Debug proxy:规范化捕获的 fetch header dictionaries • 在重放请求前,对捕获到的 fetch 请求头字典进行规范化。 • 避免 caller-owned header 对象中的 symbol metadata 导致 debug-proxy fetch 失败。 4. Web fetch:限制 guarded dispatcher cleanup 在请求超时后的清理行为 • 让超时的 fetch 返回工具错误,而不是让 Gateway tool lanes 一直处于活动状态。
  • openclaw v2026.5.6 最新更新:修复 OpenAI Codex OAuth 路由、插件请求、调试代理与 Web Fetch 超时问题

    23小时前
    图片
  • 2026-05-08:反转字符串前缀。用go语言,给定字符串 s 和整数 k,把 s 的开头 k 个字符顺序完全倒过来(其余字符保持原样),输出新的字

    23小时前
    图片
  • ollama v0.23.1 发布:原生支持 Gemma4 MTP 多令牌解码,Mac 端编码推理速度直接翻倍
    ollama v0.23.1为当前最新发布版本,正式发布时间为2026年5月6日,核心主打功能为MLX运行器适配Gemma 4 MTP多令牌处理机制。 Gemma 4 MTP多令牌推测解码现已正式在Mac设备上提供支持,针对Gemma 4 31B编码专用模型,在代码编写、程序开发类推理任务场景下,能够实现超过2倍的推理速度提升,大幅降低Mac本地部署大模型进行编码开发、代码补全、程序调试的等待耗时,彻底优化Apple芯片设备运行超大参数量编码模型的体验。 用户可通过官方原生命令直接拉起适配MTP加速的Gemma4 31B模型,执行命令如下: ollama run gemma4:31b-coding-mtp-bf16 除核心的MTP推理加速功能外,本次版本三大核心代码变更要点清晰明确,分别为: 第一,更新MLX和MLX-C依赖库,完成底层线程相关问题修复,解决旧版本中MLX引擎并发运行、多线程调度存在的隐性bug,提升Mac平台模型运行稳定性; 第二,将项目Go语言基础版本升级至1.26,跟进Go官方新版本特性,同时兼容新版语法、标准库能力与编译优化特性; 第三,新增Gemma 4 MTP推测解码完整逻辑,从模型注册、推理调度、Draft草稿模型配置、令牌策略设定多维度完成全链路适配。
  • ollama v0.23.1 发布:原生支持 Gemma4 MTP 多令牌解码,Mac 端编码推理速度直接翻倍

    1天前
    9跟贴
    图片
  • 2026-05-07:给定范围内平衡整数的数目。用go语言,给定两个整数 low 和 high,统计在闭区间 [low, high] 内满足“平衡”条件...

    1天前
    图片
  • OpenClaw v2026.5.3 最新版发布:插件外化、流式进度、会话稳定性与多渠道能力全面升级
    本次版本最重要的亮点之一,是插件系统新增了 bundled file-transfer 插件。它提供了 file_fetch、dir_list、dir_fetch 和 file_write 四个 agent 工具,专门用于配对节点上的二进制文件操作。 这一能力有几个非常关键的限制与设计点: 1. 按节点默认拒绝路径策略 • 配置位于 plugins.entries.file-transfer.config.nodes • 每个节点都需要 operator approval • 这意味着文件访问不是全局放开,而是更严格地按节点受控 2. 默认拒绝 symlink 穿越 • 默认不允许通过符号链接穿越目录 • 只有显式开启 followSymlinks 才会放行 3. 单次往返 16 MB 字节上限 • 二进制文件操作每轮 round-trip 有 16 MB ceiling • 这个限制有助于控制资源占用与传输风险 与此同时,官方插件安装流程也被全面加固。包括: • 安装 • 卸载 • 更新 • onboarding • ClawHub fallback • npm 依赖状态报告 • beta 通道更新 这些路径都被强化,使外化插件在行为上更接近“第一类包安装”。
  • 2026-05-06:采购的最小花费。用go语言,你有 5 个整数:cost1、cost2、costBoth、need1、need2。 现在你可以购买三...

    2026-05-06
    图片
  • OpenClaw v2026.5.3 最新版发布:插件外化、流式进度、会话稳定性与多渠道能力全面升级

    2026-05-06
    图片
  • ollama v0.23.0 发布:原生支持 Claude Desktop 模型推荐与底层稳定性全面升级
    2.1 Claude Desktop桌面端正式支持 ollama v0.23.0最重磅的更新莫过于原生支持Claude Desktop,用户可通过ollama专属命令直接拉起Claude Desktop客户端,实现ollama与Claude桌面生态的无缝联动。全新新增命令行指令为ollama launch claude-desktop,在终端输入该指令即可快速启动桌面端程序,无需额外配置第三方依赖或反向代理,原生适配底层调用逻辑。 同时版本完整兼容Claude生态两大核心组件,分别为Claude Cowork与Claude Code,两大组件均可直接在Claude Desktop应用内部运行适配,依托ollama底层调度能力实现本地资源调用与任务处理。官方明确标注当前Web搜索功能与扩展功能暂未完成适配,属于后续版本待更新能力,已纳入开发规划中,后续版本将陆续上线补齐生态能力。 2.2 终端Claude Code保留传统启动方式 为兼顾习惯使用命令行终端的开发者用户,ollama v0.23.0并未替换原有Claude启动逻辑,终端环境下的Claude Code依旧可以通过传统CLI命令访问使用,保留原有指令ollama launch claude,实现桌面端全新入口与终端传统入口双兼容,满足不同使用场景用户的操作习惯,桌面可视化用户使用claude-desktop指令,开发者终端用户沿用原有claude指令,互不冲突且功能完整独立。
  • 2026-05-05:分割的最大得分。用go语言,给定一个长度为 n 的整数数组 nums。需要在所有满足 0 ≤ i < n−1 的位置中选择一...

    2026-05-05
    图片
  • ollama v0.23.0 发布:原生支持 Claude Desktop 模型推荐与底层稳定性全面升级

    2026-05-05
    图片
  • openclaw v2026.4.29:全新人物维基记忆、主动运行转向、NVIDIA模型生态与海量通道稳定性修复
    1. 全新“人物维基”(People Wiki) 过去,OpenClaw的记忆插件主要存储对话片段或文档摘要。从2026.4.29开始,记忆系统获得了面向智能体的“人物维基”元数据能力。这意味着您可以: • 为对话中的联系人建立规范别名(canonical aliases) • 生成人物卡片(person cards)与关系图谱(relationship graphs) • 查看隐私/来源报告(privacy/provenance reports) • 按证据种类(evidence-kind)追溯信息来源 • 使用搜索模式:人物查询、问题路由、源证据及原始声称 对于需要长期维护客户关系、团队成员档案或研究协作记录的用户而言,这一功能将极大提升AI对人物背景的把握能力。 2. 主动记忆(Active Memory)获得会话级过滤 为了避免在不同群组/频道之间交叉污染回忆内容,本次更新为主动记忆引入了可选配置:allowedChatIds 和 deniedChatIds。运维人员可以精确控制哪些直接对话、群组或频道才启用记忆召回,从而在保持大范围会话简洁的同时,为关键会话开启上下文延续。
  • openclaw v2026.4.29:全新人物维基记忆、主动运行转向、NVIDIA模型生态与海量通道稳定性修复

    2026-05-04
    图片
  • 2026-05-04:树组的交互代价总和。用go语言,给定一个整数 n,以及一棵有 n 个节点的无向树,节点编号为 0 到 n-1。树的结构由数组 edges

    2026-05-04
    图片
  • ragflow v0.25.1 最新版发布:API 统一、PDF 解析性能大幅优化、连接器删除同步全面增强,更新要点一次看懂
    1)API 重构与统一 本次版本最核心的变化之一,就是 API refactoring and unification。 官方对各类接口做了标准化处理,把 Web API 统一为 RESTful 风格,同时对文档创建、索引流程进行了统一整合,并且保持了向后兼容。 这意味着什么? 意味着在后续开发、对接、维护过程中,接口风格会更加一致,逻辑会更清晰,使用和扩展的成本也会更低。对于长期集成 ragflow 的用户来说,这类变化通常会显著提升系统可维护性。 2)解析性能优化 本版本新增了 OpenDataLoader PDF backend,并且对 PDF 解析做了进一步优化。 尤其值得注意的是: • 对于 超过 50 页的大 PDF,新增了 lazy loading 和 chunked parsing • 这样可以显著降低内存占用 • 对大文件处理的稳定性和效率都有提升 同时,版本里还提到对 超过 300 页的大 PDF 的解析失败问题做了修复,说明这次在 PDF 处理链路上改动非常集中,也非常关键。
  • 2026-05-03:避免禁用值的最小交换次数。用go语言,给定两个长度为 n 的整数数组 nums 和 forbidden。你需要通过反复执行交换操作来调整

    2026-05-03
    图片
  • ragflow v0.25.1 最新版发布:API 统一、PDF 解析性能大幅优化、连接器删除同步全面增强,更新要点一次看懂

    2026-05-03
    图片
  • ollama v0.22.1 重大更新全解析:新增Poolside集成、模型推荐机制与多架构适配
    Ollama v0.22.1版本的更新核心围绕“兼容性拓展、体验优化、性能提升”三大目标展开,涉及多个模块的代码重构与功能新增。具体来看,此次更新主要包含以下几大方向: • 新增Poolside集成:支持Poolside CLI的运行与管理,完善相关测试用例,实现跨平台适配(Windows系统暂不支持)。 • 完善模型推荐机制:新增模型推荐接口、缓存管理,优化推荐模型的排序与展示逻辑,支持从服务端获取动态推荐列表。 • 优化量化策略:新增Laguna模型专属量化逻辑,支持FP8张量源的量化适配,调整不同模型的量化类型优先级,提升量化模型的性能与精度。 • 多模型架构适配:新增Laguna、Nemotron-H系列模型的适配支持,完善模型渲染器、解析器的自动配置逻辑。 • 推理性能优化:优化日志概率(Logprobs)的输出逻辑,修复内置解析器场景下的日志概率丢失问题,完善缓存机制提升推理速度。 • Bug修复与细节优化:修复多个测试用例的异常问题,优化命令行交互体验,完善集成注册与管理逻辑,提升版本稳定性。 此次更新覆盖了Ollama的核心模块,包括launch命令模块、server服务模块、模型量化模块、模型适配模块等,涉及代码文件近50个,新增代码超3000行,修改代码超2000行,是一次规模较大的版本升级。接下来,我们将逐一拆解每个模块的具体更新内容。
  • 2026-05-02:使所有字符相等的最小删除代价。用go语言,给定一个字符串 s(长度为 n)和一个数组 cost。其中 cost[i] 表示删除 s...

    2026-05-02
    图片
正在载入...
正在载入...