moonfdd

moonfdd

关注
58粉丝
52关注
2949被推荐

优质互联网领域创作者

13枚勋章

福大大架构师每日一题
IP属地:四川
更多信息

  • excelize v2.10.1发布:全新图表数据点、性能翻倍优化、超细致功能更新与Bug修复一览

    1小时前
    图片
  • ollama v0.17.0 更新:OpenClaw 一键自动安装、Web 搜索支持、全新 Context 动态分配与 Tokenizer 性能大幅优化!
    • OpenClaw 可通过 Ollama 自动安装、自动配置 • 云模型自动启用 Web 搜索能力 • 新的 VRAM 动态上下文长度机制 • 数据库 schema 升级至 v14 • Tokenizer 性能全面提升 • macOS / Windows 应用默认上下文长度将基于显存自动配置
  • lmdeploy v0.12.1 最新版本发布!全面支持glm-4.7-flash,优化Qwen3系列模型与Transformers v5兼容性,稳定性与性能双提升!
    🚀 新功能(Features) 在v0.12.1中,新增了几个关键功能: • 支持glm-4.7-flash:新增对glm-4.7-flash模型的全面支持,为用户提供更高效的推理体验。 • Ascend平台支持EP:正式支持Ascend平台的EP运行模式,提升在华为昇腾硬件上的兼容和性能表现。 💥 改进(Improvements) 性能与兼容性方面进行了多项优化: • 修复Transformers v5的rotary embedding兼容问题:有效解决了在新版transformers中旋转嵌入异常的问题,提升模型稳定性。 • 改进指标日志(metrics log)输出:优化指标记录与性能监控机制,使调试与性能评估更直观。 • 支持Qwen3模型量化配置中忽略特定层:进一步增强Qwen3模型的量化灵活性,方便开发者自定义量化策略。 • 新增自定义noaux kernel:提升系统可扩展性和内核处理能力。 • 修复Qwen3-VL与Transformers v5兼容问题:保证视觉语言模型在最新Transformers环境下的兼容与稳定运行。 🐞 Bug修复(Bug fixes) 本次版本修复了多个关键问题,有效提升系统的稳定性与可靠性: • 修复工具调用解析器的流式游标问题。 • 解决TP模式下引导解码的并发竞争问题。 • 修复FA3检查逻辑。 • 修复时间序列预处理中出现的异常。 • 修复Attention算子中负KV序列长度错误。 • 修复Qwen3-VL-MOE模型在长上下文场景下的不稳定问题。 • 优化smooth quant逻辑,将量化后的norm移至CPU,避免旧q_linear引用问题。 • 更新noaux-kernel检查机制,提升内核稳定性。 🌐 其他更新(Other) 在系统环境与文档方面也进行了更新: • 输入CUDA版本调整为12.6.2,适配最新CUDA环境,提高兼容性。 • 在llm_compressor.md中新增Qwen3-8B精度评估,为开发者提供更全面的参考指标。 • 重构CI测试用例,提升持续集成的稳定性与效率。 • 设置interns1_1为interns1_pro别名,简化模型调用配置。 • Docker构建优化:在使用CU13环境时自动跳过FA2组件,提高构建灵活性。 • 最后,版本号正式升级至v0.12.1。
  • openclaw v2026.2.21版本正式发布:新增Gemini 3.1支持、火山引擎对接、全新Discord语音系统与超200项安全和性能升级
    1. CLI增强 CLI新增每账户与每渠道的默认外发路由回退配置,当设置了默认目标通道时,执行 openclaw agent --deliver 语句无需显式指定 --reply-to 即可自动发送,提高自动化调用体验。 同时,CLI实现了更严格的JSON参数解析机制,新增 --strict-json 选项以减少命令歧义,--json 仍被保留为兼容别名。 根命令保持 openclaw -v 作为版本显示,不再与子命令的 -v 或 --verbose 冲突。 2. 通道配置与模型管理 通过 channels.modelByChannel 提供每通道模型覆盖能力,允许用户在不同消息平台上使用不同模型配置,并在 /status 接口中清晰展示。 3. Telegram与Discord再升级 Telegram与Discord两个主要平台进行了大规模重构: • Telegram: • 预览流式配置简化为 channels.telegram.streaming 布尔值。 • 移除复杂的预览分支结构,旧模式自动映射为统一流式逻辑。 • 新增生命周期状态表情反应机制:思考、工具、完成、错误等阶段都可配置emoji与时序。 • 增强流预览清理机制,在异常抛出时自动清理临时消息。 • 增强针对重复bot-token检测与冲突处理,防止多账户轮询冲突。 • Discord: • 新增 语音通道管理:支持 /vc 命令加入、离开及状态监控,可用于实时语音会话。 • 增强临时消息响应默认值,可设定交互命令是否使用短暂回馈。 • 支持论坛标签编辑,频道编辑时可动态更新forum标签集。 • 增强多级线程绑定 Subagent 会话模型,支持线程聚焦与路由。 • 支持实时预览流模式,可配置块化或分块响应。 此外,Discord与Telegram共享生命周期反应控制器,允许全局可视化状态更新机制,极大增强交互的即时反馈性。
  • ollama v0.16.3 发布:新增Cline集成、支持Gemma 3 / Llama 3 / Qwen 3架构、全新Zstd压缩支持与TUI交互升级详解
    一、版本信息概览 2026年2月21日,ollama 团队正式发布 v0.16.3 最新版本。这一版本是继上次更新后的又一次重要功能升级与性能优化版本,不仅集成了全新的 Cline CLI 启动支持,还在多项关键功能上进行了拓展与修复,包括: • 新增 Cline CLI 集成支持:ollama launch cline • 新增 MLX Runner 对 Gemma 3、Llama3 和 Qwen3 三种架构的支持 • 改进命令行交互,ollama launch 现在始终显示模型选择器 • 引入 Zstd 压缩解码支持以提升请求处理性能 • 优化 TUI 单选与多选交互体验 • 新增 Pi 集成文档与更加完善的 CLI 配置能力 • 修复多项 MLX 参数显示、调度和层工厂创建的错误 这一版本的改动范围广泛,涉及命令行接口 (CLI)、模型调度(MLX runner)、服务器中间件、解析器系统、安装脚本、文档系统等七大板块。 下面我们将详细拆解 ollama v0.16.3 的新版特性与底层改动。
  • RAGFlow v0.24.0 发布!全新「内存系统 + 多沙箱引擎 + OceanBase 支持」惊艳登场,功能全面革新!
    RAGFlow v0.24.0 的开发重点主要围绕以下几大核心方向展开: 1. Memory(记忆系统)正式上线:支持 SDK 与 API 接入,同时提供控制台日志查看。 2. Agent(智能代理)全面升级:引入会话管理、对话保持、多沙箱机制。 3. Dataset(知识库)增强:支持批量 Metadata 管理,ToC 更名为 PageIndex。 4. Chat 模块革新:移除过时的 Reasoning 配置,引入全新的 Thinking 模式与流式输出。 5. Admin 管理优化:多管理员体系上线,权限控制更灵活。 6. Model 接入中心拓展:支持更多模型并引入连接测试功能。 7. Ecosystem(生态拓展):全面支持 OceanBase 数据库,并新增 PaddleOCR-VL 支持。 8. 数据源集成增强:支持 Zendesk、Bitbucket、Seafile、MySQL、PostgreSQL 等多数据源。 除此之外,v0.24.0 还包含了大规模的 Bug 修复、性能优化与架构重构,为企业级开发提供了更加稳定可靠的底层支撑。
  • RAGFlow v0.24.0 发布!全新「内存系统 + 多沙箱引擎 + OceanBase 支持」惊艳登场,功能全面革新!

    2026-02-21
    图片
  • ComfyUI v0.14.2 发布:修复 Gemini/Nano banana 节点空白图像问题,全新 MIME 匹配机制登场
    1. 更新目标:解决 Gemini/Nano API 空白图像问题 在此前版本中,ComfyUI 的 API 节点在处理 Gemini 模型生成的内容时,偶尔会出现返回空白图像的情况。这个问题主要出现在节点对返回的 MIME 类型进行匹配的过程中,系统仅能识别具体的字符串类型(如 "image/png"),而无法通配或灵活识别其他类型,例如 "image/jpeg" 或 "image/webp" 等。 此问题导致部分模型生成的图片未能正确提取和呈现,严重影响使用体验。 v0.14.2 版本针对这一问题进行了根本性的技术改进,通过使用 glob(通配符)匹配机制,使 MIME 类型匹配更加灵活和智能,从而彻底解决这一潜在漏洞。 2. 代码关键改动:增加 _mime_matches 函数 在 comfy_api_nodes/nodes_gemini.py 文件中新增了如下逻辑: def _mime_matches(mime: GeminiMimeType | None, pattern: str) -> bool: """Check if a MIME type matches a pattern. Supports fnmatch globs (e.g. 'image/*').""" if mime is None: return False return fnmatch(mime.value, pattern) 这一函数通过引入 Python 标准库 fnmatch 模块,实现了基于通配符的 MIME 字符串匹配。 从原先的严格字符串等值判断,演进为支持标准通配表达式,如: • "image/*" —— 匹配所有图像类型; • "text/*" —— 匹配所有文本类型; • "application/*" —— 匹配所有应用数据类型。 这样一来,当 Gemini 模型在返回数据时使用不同的 MIME 描述(例如某些模型可能返回 "image/jpeg" 或 "image/webp"),程序都可以自动识别并正确提取图像数据,极大提升了兼容性与稳定性。 3. 函数 get_parts_by_type 改进:全面采用 _mime_matches 匹配机制 在此函数中,原本用于判断 MIME 类型的逻辑为直接字符串比较: elif part.inlineData and part.inlineData.mimeType == part_type: 新的代码将其改为: elif part.inlineData and _mime_matches(part.inlineData.mimeType, part_type): 同样地,文件数据部分也采用相同逻辑: elif part.fileData and _mime_matches(part.fileData.mimeType, part_type): 这意味着无论数据是 inlineData(内嵌数据) 还是 fileData(文件数据),都能通过灵活的模式匹配来识别不同类型的输入内容。 这一步调整是本次更新的核心,它直接关联到 Gemini 节点的图像提取逻辑,也是解决空白图像问题的根本。 4. 函数 get_image_from_response 改进:支持所有图像类型 此前版本中,程序仅从响应中提取 "image/png" 类型的内容: parts = get_parts_by_type(response, "image/png") 但由于很多模型会生成多种不同格式的图像,因此新版将其改为: parts = get_parts_by_type(response, "image/*") 这意味着系统现在可以从返回的任何图像类型(包括 JPEG、WEBP、GIF、TIFF 等)中识别并提取图像数据,大幅度提升兼容性与处理效率。 这一调整配合 _mime_matches 函数的通配符匹配机制,可视为一次重要的底层增强,为未来扩展更多的模型支持打下了坚实基础。
  • ComfyUI v0.14.2 发布:修复 Gemini/Nano banana 节点空白图像问题,全新 MIME 匹配机制登场

    2026-02-20
    图片
  • dify 1.13.0——Human-in-the-Loop与工作流执行架构全面升级,释放AI与人的协作潜力
    一、核心特性:Human-in-the-Loop (HITL) Dify 1.13.0 最大的创新在于引入了 Human Input 节点,这是一个革命性更新,让人类输入成为工作流原生组成部分。此前的工作流往往只能在“自动化”或“手动执行”两种模式之间切换,对于需要人工判断的高风险场景,这种二元结构显得捉襟见肘。而 HITL 的引入,弥合了这种“信任鸿沟”,让自动化流程具备人工纠偏能力。 1. 背景说明 以往工作流要么完全由 AI 自动执行,要么依赖人工操作,这导致在涉及关键业务判断的场景中,难以平衡 AI 的效率与人工的可靠性。现在,Dify 支持将人工审核步骤直接嵌入工作流执行图中,实现真正的智能协作。 2. 核心功能 (1)原生工作流暂停机制 在流程关键节点插入“Human Input”节点,工作流即会暂停,等待人工输入。这对于涉及敏感决策或需人工校验的数据场景尤为必要。 (2)人工审核与编辑 暂停后系统会生成可视化界面,人工可审阅 AI 输出内容,修改关键变量(如草稿、数据结果等),再继续执行流程,从而保证精准度。 (3)操作路由控制 可配置自定义按钮,如“批准”、“拒绝”、“升级处理”等,用于决定后续工作流路径。不同操作对应不同的逻辑分支,实现高度灵活的决策流。 (4)多渠道输入方式 人工输入表单可通过 Web 应用或邮件推送形式完成。在云环境下,邮件方式可能受订阅计划或功能设置影响。 二、架构更新:支持暂停和恢复的工作流机制 为支持 HITL 所需的状态化暂停与恢复机制,Dify 对执行引擎进行了全面重构。 1. 执行架构变化 • Workflow-Based Streaming Executions 和 Advanced Chat Executions 现均由 Celery workers 执行。 • 非流式的工作流运行仍在 API 进程中处理。 • 所有暂停/恢复路径(包括 HITL)均通过 Celery 恢复执行,事件流式返回经由 Redis Pub/Sub 实现。 2. 大规模部署及自托管建议 Dify 引入了新的 Celery 队列:workflow_based_app_execution。标准部署模式可直接使用,但对于高并发、高吞吐环境,官方建议进行如下优化: • Scale Workers(扩展 Worker 数量):根据工作负载增加对该队列的 Worker。 • Dedicated Redis(专用 Redis 实例):大规模部署推荐配置 PUBSUB_REDIS_URL 指向专用 Redis;使用 Redis Cluster 模式结合分片 PubSub,可实现水平扩展与稳定高性能。
  • dify 1.13.0——Human-in-the-Loop与工作流执行架构全面升级,释放AI与人的协作潜力

    2026-02-19
    2跟贴
    图片
  • ollama v0.16.2 发布:新增云模型控制、Web搜 ollama v0.16.2 发布:新增云模型控制、Web搜索功能与安全性强化的重大更新详解
    此版本的核心亮点主要集中在以下几个方面: 1. Claude 模型新增 Web 搜索能力(仅云模式下支持) 2. 修复 PowerShell 下的显示问题 3. 新增设置项,可禁用云模型以保护隐私 4. Linux 环境新增环境变量 OLLAMA_NO_CLOUD=1 控制云访问 5. 修复实验性图像生成模型无法运行的问题 6. 新增多项数据库迁移与云配置验证机制
  • ollama v0.16.2 发布:新增云模型控制、Web搜索功能与安全性强化的重大更新详解

    2026-02-18
    图片
  • go-zero v1.10.0发布!全面支持Go 1.23、MCP SDK迁移、性能与稳定性双提升
    🎉 版本亮点(Highlights) v1.10.0 重点更新包括: • 支持Go 1.23:框架底层升级,全面适配Go 1.23的新特性与优化。 • MCP SDK迁移:切换至官方go-sdk,API更简洁更易用。 • 性能优化与稳定性提升:修复了多个竞争条件(race condition)相关问题,增强并发稳定性。 ✨ 新功能(New Features) 1. Go 1.23 支持 • 最低Go版本升级至1.23。 • 新版本中更好地利用Go编译器优化与运行时性能。 2. MCP Framework - SDK迁移 • 框架核心迁移到官方go-sdk。 • API简化,开发体验明显提升。 3. Gateway增强 • 新增WithDialer选项,支持自定义gRPC客户端配置。 • 网络灵活性与可扩展性进一步提升。 🐛 问题修复(Bug Fixes) 1. 熔断器机制(Circuit Breaker)修复 • 修复由于context取消导致的熔断器异常触发问题,使HTTP客户端更稳定。 2. 服务发现(Service Discovery)数据竞争修复 • 解决了服务发现过程中的map访问竞争,进一步提升并发可靠性。 3. 配置优化(Configuration) • 修复属性值中等号的解析问题。 • 移除冗余的配置校验逻辑,让配置更直观。 🔧 改进项(Improvements) 1. MCP Routes优化 • 路由实现重构,增强AddTool功能的稳定性与可用性。 2. 测试体系完善 • 为Load函数新增全面验证测试,确保配置加载过程稳定可靠。 🗑️ 弃用功能(Deprecations) • Jaeger Exporter移除 • 由于官方已弃用该模块,本版本彻底移除相关实现。 • 推荐使用其他分布式追踪方案替代。
  • go-zero v1.10.0发布!全面支持Go 1.23、MCP SDK迁移、性能与稳定性双提升

    2026-02-17
    图片
  • redis 8.6.0 正式发布!性能暴涨、内存占用大降、全新热键检测与更智能的逐出策略来了!
    与 Redis 8.4 相比的主要变化 • 显著性能提升 Redis 8.6 对核心执行逻辑进行了深度优化,在命令执行效率及系统调用上大幅提速。 • 内存占用显著下降 对哈希表(hashtable 编码)和有序集合(skiplist 编码)结构进行了优化,减少了内存占用。 • Streams:新增 XADD 幂等写入机制 通过添加新参数 IDMPAUTO 与 IDMP,实现了 “至多一次”(at-most-once) 的写入保障,确保流式数据写入更安全。 • 新增逐出策略(Eviction Policies) 新增策略: • volatile-lrm:基于“最近修改时间”的易失键逐出; • allkeys-lrm:基于“最近修改时间”的全键空间逐出。 这是继 LRU/LFU 后的全新思路——基于“修改活跃度”的内存淘汰机制。 • 热键检测与上报(Hot Keys Detection) 通过新命令 HOTKEYS 可以实时检测访问频繁的键,方便进行精细化性能优化和缓存热点分析。 • TLS 证书自动认证 Redis 8.6 支持基于证书的客户端自动认证机制,无需手动配置即可完成安全通信身份校验。 • 时间序列(Time Series)增强 新增对 NaN(非数值) 的支持;新增聚合函数: • COUNTNAN:统计 NaN 值数量 • COUNTALL:统计所有值数量 为时间序列数据分析提供了更强的灵活性。
  • redis 8.6.0 正式发布!性能暴涨、内存占用大降、全新热键检测与更智能的逐出策略来了!

    2026-02-16
    图片
  • DeepSpeed v0.18.6发布:修复关键并发问题,全面支持Python 3.14,性能更稳定更智能!
    ✅ 版本号更新 版本文件已同步到 0.18.6,确保用户可以准确获取最新版本信息,版本管理更加规范。 ⚙️ 并发与模块优化 本次更新修复了 leaf 模块的竞态条件问题,进一步提升了模型在高并发环境下的稳定性。同时,这意味着在分布式训练过程中,模块之间的同步与数据安全性得到了更好保障。 🧠 推理阶段优化 在 模型评估(eval) 阶段,系统将 跳过序列并行操作,显著减少无效计算,进一步优化了推理效率。这一改动对大模型推理特别友好,尤其是资源有限的推理部署场景。 🔧 AutoTP智能分区增强 此次版本还新增了 AutoTP的自定义分区模式支持,并修复了 AutoTP自定义模式中未正确遵循use_default_specs参数 的问题。 这让用户能够更加灵活地定义Tensor分区策略,从而在不同硬件架构下获得最优性能表现。 📈 训练稳定性改进 修复了 Gradient is ready with z2 的梯度计算问题,并修正了 在ZeRO stage 0配置下,bf16梯度范数发散的问题,显著提升了混合精度训练的收敛稳定性。 这对使用ZeRO优化的超大模型训练尤为关键。 🧩 Python 3.14兼容性更新 DeepSpeed v0.18.6全面 支持Python 3.14的新注解处理机制,为未来Python版本的适配铺平道路,开发者可放心升级Python环境。 🧮 函数库更新 用 math.gcd 替代了已弃用的 fractions.gcd,保持代码兼容性与标准化,确保长远维护更轻松。 ⚡ 性能改进:JIT替换为编译模式 本次更新将 torch.jit.script 替换为 torch.compile,充分利用PyTorch新一代的编译优化能力,提升执行效率的同时简化模型编译部署流程。
  • DeepSpeed v0.18.6发布:修复关键并发问题,全面支持Python 3.14,性能更稳定更智能!

    2026-02-15
    图片
  • ollama v0.16.1发布:安装体验优化、模型加载超时可配置、图像生成更智能的全面更新解析
    主要技术亮点: 1. 安装体验全面优化 • macOS安装仅在需要时请求密码。 • Windows安装新增实时进度条。 2. 模型系统更智能 • 新增minimax-m2.5作为首选推荐云模型。 • 推荐模型标注“(not downloaded)”状态。 • 云模型token限制范围更合理。 3. 文档体验再升级 • 快速入门文档更直观。 • 工具与API示例更全面。 • 支持更丰富的集成助手。 4. 图像生成模块可配置 • 通过OLLAMA_LOAD_TIMEOUT灵活控制加载时间。
正在载入...
正在载入...