moonfdd

moonfdd

关注
67粉丝
61关注
3185被推荐

优质互联网领域创作者

13枚勋章

福大大架构师每日一题
IP属地:北京
更多信息

  • openclaw v2026.4.29:全新人物维基记忆、主动运行转向、NVIDIA模型生态与海量通道稳定性修复
    1. 全新“人物维基”(People Wiki) 过去,OpenClaw的记忆插件主要存储对话片段或文档摘要。从2026.4.29开始,记忆系统获得了面向智能体的“人物维基”元数据能力。这意味着您可以: • 为对话中的联系人建立规范别名(canonical aliases) • 生成人物卡片(person cards)与关系图谱(relationship graphs) • 查看隐私/来源报告(privacy/provenance reports) • 按证据种类(evidence-kind)追溯信息来源 • 使用搜索模式:人物查询、问题路由、源证据及原始声称 对于需要长期维护客户关系、团队成员档案或研究协作记录的用户而言,这一功能将极大提升AI对人物背景的把握能力。 2. 主动记忆(Active Memory)获得会话级过滤 为了避免在不同群组/频道之间交叉污染回忆内容,本次更新为主动记忆引入了可选配置:allowedChatIds 和 deniedChatIds。运维人员可以精确控制哪些直接对话、群组或频道才启用记忆召回,从而在保持大范围会话简洁的同时,为关键会话开启上下文延续。
  • openclaw v2026.4.29:全新人物维基记忆、主动运行转向、NVIDIA模型生态与海量通道稳定性修复

    1天前
    图片
  • 2026-05-04:树组的交互代价总和。用go语言,给定一个整数 n,以及一棵有 n 个节点的无向树,节点编号为 0 到 n-1。树的结构由数组 edges

    1天前
    图片
  • ragflow v0.25.1 最新版发布:API 统一、PDF 解析性能大幅优化、连接器删除同步全面增强,更新要点一次看懂
    1)API 重构与统一 本次版本最核心的变化之一,就是 API refactoring and unification。 官方对各类接口做了标准化处理,把 Web API 统一为 RESTful 风格,同时对文档创建、索引流程进行了统一整合,并且保持了向后兼容。 这意味着什么? 意味着在后续开发、对接、维护过程中,接口风格会更加一致,逻辑会更清晰,使用和扩展的成本也会更低。对于长期集成 ragflow 的用户来说,这类变化通常会显著提升系统可维护性。 2)解析性能优化 本版本新增了 OpenDataLoader PDF backend,并且对 PDF 解析做了进一步优化。 尤其值得注意的是: • 对于 超过 50 页的大 PDF,新增了 lazy loading 和 chunked parsing • 这样可以显著降低内存占用 • 对大文件处理的稳定性和效率都有提升 同时,版本里还提到对 超过 300 页的大 PDF 的解析失败问题做了修复,说明这次在 PDF 处理链路上改动非常集中,也非常关键。
  • 2026-05-03:避免禁用值的最小交换次数。用go语言,给定两个长度为 n 的整数数组 nums 和 forbidden。你需要通过反复执行交换操作来调整

    2026-05-03
    图片
  • ragflow v0.25.1 最新版发布:API 统一、PDF 解析性能大幅优化、连接器删除同步全面增强,更新要点一次看懂

    2026-05-03
    图片
  • ollama v0.22.1 重大更新全解析:新增Poolside集成、模型推荐机制与多架构适配
    Ollama v0.22.1版本的更新核心围绕“兼容性拓展、体验优化、性能提升”三大目标展开,涉及多个模块的代码重构与功能新增。具体来看,此次更新主要包含以下几大方向: • 新增Poolside集成:支持Poolside CLI的运行与管理,完善相关测试用例,实现跨平台适配(Windows系统暂不支持)。 • 完善模型推荐机制:新增模型推荐接口、缓存管理,优化推荐模型的排序与展示逻辑,支持从服务端获取动态推荐列表。 • 优化量化策略:新增Laguna模型专属量化逻辑,支持FP8张量源的量化适配,调整不同模型的量化类型优先级,提升量化模型的性能与精度。 • 多模型架构适配:新增Laguna、Nemotron-H系列模型的适配支持,完善模型渲染器、解析器的自动配置逻辑。 • 推理性能优化:优化日志概率(Logprobs)的输出逻辑,修复内置解析器场景下的日志概率丢失问题,完善缓存机制提升推理速度。 • Bug修复与细节优化:修复多个测试用例的异常问题,优化命令行交互体验,完善集成注册与管理逻辑,提升版本稳定性。 此次更新覆盖了Ollama的核心模块,包括launch命令模块、server服务模块、模型量化模块、模型适配模块等,涉及代码文件近50个,新增代码超3000行,修改代码超2000行,是一次规模较大的版本升级。接下来,我们将逐一拆解每个模块的具体更新内容。
  • 2026-05-02:使所有字符相等的最小删除代价。用go语言,给定一个字符串 s(长度为 n)和一个数组 cost。其中 cost[i] 表示删除 s...

    2026-05-02
    图片
  • ollama v0.22.1 重大更新全解析:新增Poolside集成、模型推荐机制与多架构适配

    2026-05-02
    图片
  • dify 1.14.0 发布:协作编辑、人在回路、Quota v3 等核心特性全解析
    一、协作编辑模式:多人实时在线编辑工作流 协作功能的引入是本次更新最受瞩目的亮点。在这一版本中,工作空间内的成员可以共同编辑同一个工作流,系统会实时同步工作流图的更新,并展示在线状态,让团队成员清楚知道谁正在编辑哪个部分。在自托管部署环境中,该功能默认关闭,如需启用需要设置以下环境变量: • ENABLE_COLLABORATION_MODE = true • SERVER_WORKER_CLASS = geventwebsocket.gunicorn.workers.GeventWebSocketWorker • NEXT_PUBLIC_SOCKET_URL = wss://dify.example.com 完整的配置说明可以在官方文档中查阅。协作模式的实现依赖 WebSocket,让编辑体验更加流畅,避免了多人编辑时的冲突。 二、人在回路(Human-in-the-loop,HITL)服务 API 1.14.0 版本为人在回路流程提供了完整的服务 API 支持。这意味着开发者可以通过编程方式控制 HITL 流程,与现有的控制台行为并行。此前在控制台中已经可以配置人工干预节点,现在新增的 API 使得外部系统或自定义界面能够更灵活地驱动这些流程,为自动化与人工操作的深度结合提供了统一接口。
  • 2026-05-01:整数的镜像距离。用go语言,给定一个整数 n,请计算它与其数字倒序后的数之间的差的绝对值。 其中,倒序后的数是把 n 的每一

    2026-05-01
    图片
  • dify 1.14.0 发布:协作编辑、人在回路、Quota v3 等核心特性全解析

    2026-05-01
    图片
  • ollama v0.22.0 发布:新增 NVIDIA Nemotron 3 Omni 与 Poolside Laguna 模型支持,推理能力再升级!
    新模型支持:两大重量级模型登场 1.1 NVIDIA Nemotron 3 Omni v0.22.0 引入了对 NVIDIA Nemotron 3 Omni 系列模型的原生支持。这是一个多模态模型家族,在代码中对应的架构标识为 nemotron_h_omni。该模型支持: • 文本生成:基于 Nemotron-H 架构的 LLM 核心 • 视觉理解:集成了 Vision Transformer(ViT)模块,支持图像输入 • 音频处理:集成了 Parakeet 音频编码器,支持语音输入 在转换器(converter)层面,新增了 convert/convert_nemotron_h.go 和 convert/convert_nemotron_h_test.go 两个文件(共约 700 行代码),专门处理 Nemotron 系列模型的权重映射和参数转换。 关键配置参数包括: • max_sequence_length: 131072(128K 上下文) • vision.image_size: 512 • vision.patch_size: 16 • audio.sample_rate: 16000 1.2 Poolside Laguna XS.2 Poolside 的首个开源权重编码模型 Laguna XS.2 也获得了完整支持。这是一个专注于代码生成和软件工程任务的模型,架构标识为 LagunaForCausalLM。 新增的模型支持文件包括: • model/models/laguna/model.go(约 440 行):Laguna 模型的 MLX 实现 • convert/convert_laguna.go(约 600 行):GGUF 转换逻辑 • model/parsers/laguna.go(约 500 行):专用的输出解析器 • model/renderers/laguna.go(约 110 行):模板渲染器
  • 2026-04-30:交替删除操作后最后剩下的整数。用go语言,给定一个整数 n,把 1 到 n 依次排成一行。之后反复进行两种删数方式,并且这两种

    2026-04-30
    图片
  • ollama v0.22.0 发布:新增 NVIDIA Nemotron 3 Omni 与 Poolside Laguna 模型支持,推理能力再升级!

    2026-04-30
    图片
  • ComfyUI v0.20.1 更新:SUPIR、RIFE/FILM、SAM 3.1、OpenAPI 3.1、视频与音频能力全面增强
    本次版本标注为 Immutable release,也就是说:只有发布标题和发布说明可以修改。这意味着该版本的发布内容是相对稳定和固定的,适合直接作为生产环境升级参考。 从更新条目来看,v0.20.1 不是单点修复,而是一次覆盖面很广的综合升级,尤其集中在以下几个方向: • 新增多种模型支持 • 音频与视频相关能力增强 • API 与内部接口更规范 • 工作流模板持续更新 • 前端包持续迭代 • 执行器稳定性和异常机制优化 • 伙伴节点持续扩展
  • ComfyUI v0.20.1 更新:SUPIR、RIFE/FILM、SAM 3.1、OpenAPI 3.1、视频与音频能力全面增强

    2026-04-29
    图片
  • 2026-04-29:二进制交换后的最大分数。用go语言,给定一个长度为 n 的整数数组 nums 和一个长度相同的二进制字符串 s。 初始得分为 0。对

    2026-04-29
    图片
  • openclaw v2026.4.24 发布:Google Meet 深度集成、DeepSeek V4 上线、浏览器自动化与插件架构全面升级
    核心亮点(Highlights) 1. Google Meet 正式成为 OpenClaw 原生参与者插件 Google Meet 以捆绑参与者插件的形式加入 OpenClaw。该插件支持: • 个人 Google 账号认证(OAuth) • Chrome / Twilio 实时会话 • 配对节点 Chrome 支持(用于 Parallels 风格的 Chrome/BlackHole/SoX 主机) • 会议记录、录音、转录、智能笔记、参与者会话等工件与出勤导出 • 针对已打开的 Meet 标签页的恢复工具(googlemeet recover-tab) 2. DeepSeek V4 系列模型入包,V4 Flash 成为默认模型 • DeepSeek V4 Flash 和 DeepSeek V4 Pro 已加入捆绑模型目录。 • V4 Flash 成为新用户 onboarding 的默认模型。 • 修复了 DeepSeek 思维链(thinking)在后续工具调用轮次中的回放行为。 3. 实时语音循环增强:Talk、Voice Call、Google Meet 可调用完整 OpenClaw 代理 Talk 模式、语音电话和 Google Meet 现在可以使用实时语音循环,并能咨询完整的 OpenClaw 代理以获取更深入的、基于工具的答案。 4. 浏览器自动化升级 • 坐标点击(viewport coordinate clicks) • 更长的默认操作预算(60 秒) • 支持按配置文件单独设置 headless 模式 • 更稳定的标签页复用与恢复 5. 插件与模型基础设施启动更轻量 • 静态模型目录 • 基于 manifest 的模型行 • 延迟加载 provider 依赖 • 针对打包安装的外部运行时依赖修复
  • openclaw v2026.4.24 发布:Google Meet 深度集成、DeepSeek V4 上线、浏览器自动化与插件架构全面升级

    2026-04-28
    图片
正在载入...
正在载入...