作者 | GOSIM
出品 | CSDN(ID:CSDNnews)

随着大模型进入工程化阶段,行业关注点正在从“模型能力突破”转向“如何稳定、低成本、长期运行”。与此同时,以 OpenClaw 为代表的智能体框架持续升温,AI 自动执行任务离真实生产环境越来越近,但推理成本、调用链复杂度以及开源生态可持续性等问题,也开始成为行业必须面对的新挑战。

5 月 6 日,GOSIM Paris 2026 进入第三天,议程也从趋势判断转向更偏落地的技术实践。这场由 GOSIM 主办,CSDN、1ms.ai 与 Probabl 联合打造的全球开源 AI 盛会,今天讨论的重点不再是“AI 能走多远”,而是“具体该怎么做”。

作为一个连接不同地区开发者的跨文化平台,巴黎 Station F 现场的国际化氛围愈发明显:来自世界各地的开发者、研究者、企业代表与社区参与者同场交流。不同背景的人因为开源走到一起,让每一场讨论都更像是一次真实的技术碰撞。这也是 GOSIM 一直强调的方向——打破技术与地域边界,让开源协作更高效地连接全球创新力量,并推动 AI 技术更广泛地被使用与受益。

今天的大会现场,来自亚马逊、NVIDIA、华为、Fundamental、LAION、智源、波特兰州立大学、Neo4j AI 社区、Fraunhofer IAIS 等机构的技术专家与开源实践者,从模型推理优化、边缘智能部署,到开源社区治理机制,分享大量来自一线系统的真实经验。

当模型能力逐渐趋于同质化之后,真正拉开差距的,不再只是参数规模,而是工程体系是否足够扎实、生态是否足够可持续、协作是否足够高效。

而这,也正是这场大会试图回答的问题。

打开网易新闻 查看精彩图片

重磅 Keynote 思辨,工具赋能智能体时代

面对智能体技术加速普及、产业落地持续提速的行业现状,三位行业顶尖实践者从工具链底层革新出发展开系统级思考,围绕开发工具如何面向智能体时代持续演进、以及 Agentic AI 如何重塑计算范式与开放评估体系等关键议题展开深入探讨,试图为新一代 AI 应用形态构建更稳固的技术基础,并为智能体的规模化落地提供更清晰的工程路径与底层支撑。

Niko Matsakis:《Symposium:拥抱生态系统》

作为 Keynote 首位登场的分享嘉宾,亚马逊高级首席工程师 Niko Matsakis 将目光投向一个颇具前瞻性的方向:如何让 Rust 工具链在设计之初就适配智能体(Agents)时代。他带来的开源项目 Symposium,正是围绕这一目标展开的一次实践探索。

打开网易新闻 查看精彩图片

简而言之,Symposium 更像是对 Rust 现有工具链的一次“能力扩展”。在编译器与构建系统之外,它尝试让这些底层开发基础设施可以被智能体直接理解和调用。当前版本虽然仍处于 MVP 阶段,但已经具备一个关键能力:按依赖分发“技能”。当开发者在项目中引入某个 crate 时,Symposium 会自动安装对应的技能或 MCP 服务。这些内容由库作者提供,本质上是一种结构化的使用说明,让智能体能够准确理解库的用法,而不再依赖零散且可能过时的外部资料。

结合自己自 2011 年参与 Rust 设计(包括借用检查器)以及在亚马逊的工程实践经验,Niko Matsakis 也回顾了 Rust 的发展路径。他提到,Rust 一直具备从底层系统到上层应用的广泛适用性,但早期推广过程中,学习门槛和迁移成本始终是主要阻力。而随着 Agentic 开发范式的兴起,这一局面正在发生变化:代码生成的成本迅速降低,系统维护反而成为更突出的挑战,开发者开始更加看重长期的可靠性与可维护性。

这一变化,也在放大 Rust 的优势。一方面,其严格的类型系统为智能体提供了天然的约束机制,可以有效减少错误路径;另一方面,Rust 在性能与资源效率上的表现,使其在大规模部署场景中具备更清晰的成本优势。与此同时,Rust 多年来打磨的编译器错误提示体系,在智能体场景下也呈现出新的价值——智能体可以直接利用这些高质量的错误信息完成修复,而无需额外检索上下文。

不过,他也坦言,当前智能体在实际开发中的表现仍有明显不足。以新发布的库 Toasty 为例,大模型往往难以及时获取最新版本信息,甚至会生成已经过时的 API 用法;同时,它们也倾向于编写旧版本(如 2021 edition)的代码,而不是遵循最新规范。这些问题的根源,在于知识获取链路本身的不稳定。

Symposium 试图从源头上重构这一链路。通过让库作者直接提供“技能文件”(通常为 Markdown 形式),并由工具链自动分发给智能体,开发过程中所依赖的信息将从“互联网搜索”转向“作者直供”。开发者只需完成简单初始化,当依赖发生变化时,智能体即可同步获得权威且最新的使用指导,从而显著减少误用与版本偏差。

从更长远来看,Niko Matsakis 期望 Symposium 能推动形成一套可互操作的生态标准:由库作者提供标准化服务接口,开发者可以自由选择不同的智能体,而 Symposium 作为中间层完成适配,弥合不同生态之间的差异。

Yonghua Lin(林咏华):《从 ChatGPT 到 OpenClaw:Agentic AI 如何重新定义 AI 计算》

在大模型性能逐渐逼近瓶颈的背景下,AI 产业的竞争焦点正从“模型能力”转向“系统能力”。北京智源人工智能研究院(BAAI)的副院长兼总工程师 Yonghua Lin(林咏华)围绕“从 ChatGPT 到 OpenClaw:Agentic AI 如何重新定义 AI 计算与开放评估”这一主题展开分享,指出基础设施正在成为制约 AI 发展的下一关键瓶颈。

打开网易新闻 查看精彩图片

林咏华表示,随着 AI Agent 逐渐普及,其运行依赖多轮推理与执行,对底层系统提出了更高要求。因此,单纯提升大模型性能已不足以支撑复杂应用,基础设施能力的重要性正在快速上升。

2026年的前四个月,就有包括GLM、Qwen、Minimax、MiniCPM、DeepSeek等新一轮顶级开源模型发布。让产业能基于安全、隐私和可控性进行自主部署,并推动后训练创新。但与此同时,部署侧的挑战也愈发明显——用户希望在更低成本下,拥有更多硬件选择,而当前 AI 芯片的效率仍未达到理想状态。

在这一背景下,“跨架构运行”成为关键方向。以 DeepSeek V4 为例,该模型支持百万 Token 上下文并具备强推理能力,同时采用不同的注意力压缩算法(CSA、HCA)、KV 缓存优化和“FP4+FP8”混合精度等多项系统优化。然而,这些特性也带来了迁移挑战,包括当下已经部署的AI芯片大部分不支持 FP4和FP8精度、单卡需 80GB 以上显存,以及算子与硬件深度绑定等问题。

针对这些挑战,BAAI 提出了“开放计算”的核心思路:通过解耦硬件特性,让模型能够在不同架构上运行。林咏华透露,在迁移 DeepSeek V4 过程中,其团队完成了统一软件替换、算子补齐、精度转换、内存重构与性能优化,并对算子进行了系统验证。

在基础设施层面,BAAI 构建了 FlagOS 开放软件栈,已支持 30 余种芯片,并通过“Skills”进行模块化封装,降低部署复杂度。同时,团队推出 FlagTree 编译器以增强多后端支持,并基于此扩展出新语言 TLE(Triton Language Extensions),在开发效率与执行性能之间实现平衡。

值得注意的是,AI 在开发流程中的角色也在发生变化。林咏华指出,随着代码生成越来越依赖 AI,人类学习新语言的成本已不再是主要瓶颈。基于这一趋势,BAAI 构建了“KernelGen”,可自动完成算子生成、测试与性能验证等,目前已承担约 80% 的内核开发工作。借助这一工具,DeepSeek V4 中新增的关键算子,仅用 1-2 天便完成了基于Triton语言的实现、优化、并完成跨架构迁移。

在工程实践方面,BAAI 还搭建了完整的模型迁移 Pipeline,并在 Hugging Face 上发布了面向多种 AI 芯片的大模型自动迁移、多芯片发版平台 FlagRelease,实现多后端快速部署。此外,针对 vLLM、SGLang 等主流推理引擎,BAAI 还开发了统一插件系统,将 FlagOS 能力嵌入现有生态,进一步降低开源项目接入门槛。

在演讲最后,林咏华强调,开放计算不仅关乎跨硬件运行,更关乎算力资源的再分配。当前全球仍有大量闲置 AI 算力资源,如果能加以整合并通过远程方式向发展中国家开放,将显著提升 AI 教育与科研的可及性。基于此,BAAI 已与非洲联盟展开合作,搭建在线实验室、支持多国教师培训,以推动 AI 课程落地。

“这只是一个开始。”林咏华表示,开放计算不仅是技术路径的选择,更是推动全球 AI 能力普惠的重要基础。

Alexandre Gerbeaux:《AI 的左脑:为什么结构化数据是AI的下一个前沿》

随后,Fundamental 应用人工智能负责人 Alexandre Gerbeaux 从个人职业经历切入,梳理了数据科学的发展路径,并引出了一个正在兴起的新方向——大型表格模型(LTM)。

打开网易新闻 查看精彩图片

他将时间拉回到 2011 年。《Moneyball》的流行,让“用数据做决策”第一次以大众文化的形式进入公众视野;同一时期,《Harvard Business Review》提出“数据科学家是21世纪最性感的职业”,也在无形中影响了一代人的职业选择。再加上 scikit-learn 等工具逐渐成熟,数据科学开始从零散实践走向一套相对标准化的方法体系。

转折出现在 2022 年。随着 GPT-3.5 的出现,行业关注点迅速转向大语言模型和智能体。这种变化一度让他重新思考:传统数据科学的那一套方法,在新的技术范式下是否仍然成立?

他的答案来自对企业真实需求的重新观察。绝大多数核心业务数据,依然是结构化的——存在于表格、数据库和 CRM 系统中。无论是银行的贷款审批,还是医院的再入院预测,本质上仍是基于结构化特征的建模问题,而这正是传统机器学习长期擅长的领域。

与此同时,他也指出,大语言模型在文本生成和非结构化数据处理上表现突出,但在数值计算和精确预测方面仍存在明显局限。这种能力边界,让“该用什么模型解决什么问题”重新变成一个具体而现实的工程判断。问题在于,传统机器学习的工作范式在过去二十年几乎没有本质变化:每遇到一个新任务,仍然需要从头进行特征工程、模型训练和参数调优。这种高度依赖人工的流程,在效率和可复用性上都存在明显瓶颈。

正是在这样的背景下,他引入了表格基础模型的思路:不再围绕单一任务训练模型,而是在大规模表格数据上进行预训练,让模型学习现实世界中的数据分布和统计规律。以房价预测为例,这类模型可以内化诸如地理位置、面积单位等常识,从而减少对人工特征工程的依赖,并提升预测效果。

他提到,近期多篇研究已经显示,这一方向在多个基准任务上开始超越传统机器学习方法,表格领域正在迎来类似“大模型时刻”的拐点。其中,Gaël Varoquaux 在 Inria 实验室的相关工作,是这一趋势的重要推动力量。

在产业层面,Fundamental 也在加速推进这一方向的落地。其开发的表格基础模型 “Nexus”,定位为企业级预测任务的通用引擎。Gerbeaux 透露,公司近期已完成新一轮融资,估值达到 14 亿美元,这也从侧面反映出市场对这一技术路径的期待。

在演讲最后,他用一个形象的比喻形容大模型与表格模型的根本关系:如果说大语言模型更像 AI 的“右脑”,擅长生成与创造,那么表格模型则更接近“左脑”,负责逻辑与数值推理。在真实业务中,两者不是替代关系,而是需要协同发挥作用。

打开网易新闻 查看精彩图片

五大主题论坛齐发,拆解开源智能痛点

在重磅 Keynote 分享之外,GOSIM Paris 2026 同步开设五大垂直主题论坛,覆盖 Agentic AI Summit、开源模型、Agentic OS 与应用、边缘侧 Agentic AI、开源机器人五大核心方向。从基础模型研发、系统应用搭建,到边缘智能部署、开源机器人创新,多维度聚焦产业真实需求,层层拆解技术落地难点,以细分领域的深度交流,全方位挖掘开源与智能体技术的落地价值。

Agentic AI 峰会

本场峰会聚焦 Agentic AI 在基础模型与产业落地中的最新进展,围绕开放生态、基础模型能力演进以及智能体系统化构建展开讨论。

首先,LAION 科学负责人兼联合创始人 / Jülich 超级计算中心(JSC,FZJ)实验室负责人 Jenia Jitsev 带来了主题为《开放前沿基础模型:面向前沿级别 ML 与 AI 的开放流水线》的演讲,重点讨论开放式训练与数据流水线在前沿模型能力构建中的关键作用。随后,Minimax AI 模型业务开发负责人 Daniel 回顾 Minimax 从基础模型研究者到企业级智能体基础设施提供商的演变历程,并指出大语言模型的真正价值正在于其作为自主智能体的行动能力。

紧接着,一场以“开源 AI 与新一代构建者”为主题的圆桌对话展开。Neo4j AI 社区架构师 Alexy Khrabrov、.txt CEO Rémi Louf、Draft’n Run 创始人 Marc Sanselme、NNAIO France 首席执行官 Junyi Zhong、WeaveMind, Inc. 创始人兼首席执行官 Quentin Feuillade-Montixi、Moonshot AI 开发者关系负责人(Kimi)Minako Kojima,共同围绕一个核心问题展开讨论:当 AI 工具链不断成熟,一个开发者究竟可以独立完成多少工作,以及这种能力扩展是否正在重塑创业的起点。讨论最终形成一个相对一致的判断:开源 AI 正在显著降低构建门槛,让“单人构建复杂系统”成为可能,但从“能做出来”到“能规模化”,仍然存在清晰分界线。在这种张力之下,新一代初创公司的形态正在被重新定义。

在基础设施与系统层面,论坛进一步将讨论延伸到模型之下的执行底座。Yale University 计算机科学教授 Lin Zhong 剖析了 一个为灵活性和效率而设计的可编程 LLM 服务系统 Pie,该系统通过应用特定优化,使智能体工作流在延迟与吞吐量上提升约 1.3 至 3.4 倍;中国电子技术标准化研究院工程师 Hang Chen 分享中国在开源模型相关政策与标准体系上的进展,并展示了木兰开源社区等生态建设与运营机制;华为系统基础设施研究(SIR)总监 Adam Barker 则围绕 openEuler 的 AI 探索与 SuperPoD OS 计划,展示操作系统栈如何面向异构计算与大规模 AI 工作负载进行系统级优化。

作为本场论坛的第二个圆桌讨论,Futurewei Technologies 技术战略高级总监 Wenjing Chu、NVIDIA 首席工程师 Markus Tavenrath、Fraunhofer IAIS 基础模型团队负责人 Nicolas Flores-Herr、Wendy Seltzer 律师事务所负责人 Wendy Seltzer、First Person Project 创始人 Drummond Reed 同台交流。多位嘉宾指出,当更强的 AI 智能体开始进入关键基础设施、业务系统以及个人环境,信任如何建立、安全如何保障、隐私如何界定,已经不再是附加问题,而是系统设计必须同时回答的核心约束。

第三场圆桌讨论由欧洲 Linux Foundation Europe 社区发展负责人 Mirko Boehm、AI Safety Connect 联合创始人 Nicolas Miailhe、OpenMined Foundation 欧盟政策负责人 Peter Ide-Kostic、CODATA 人工智能负责人 Slava Tykhonov、Rothwell International 首席技术官 Hai-Xu Cheng、New Intelligence Centre for Empathy and Reason 联合创始人 Bart Kubiak 共同参与,现场围绕“智能体 AI 时代的欧洲——开放创新与全球合作”展开交流,从欧洲是否错失 SaaS 浪潮切入,延伸到 AI 智能体带来的新一轮技术窗口,开源 AI 能否成为欧洲的战略优势,以及在保持技术主权的同时如何推进全球合作,并进一步探讨欧洲机构在塑造下一代 AI 生态中的角色与边界。

开源模型

训练一个百亿参数模型,成本能砍掉 95%?AI 处理百万 token 上下文,复杂度还不用平方级暴涨?机器不仅要看懂视频,还得判断小球落地符不符合牛顿力学?——开源模型圈的“内卷”方向,正在变得很有意思。

在本次大会的「开源模型」论坛中,Moonshot AI 开发者关系负责人(Kimi)Minako Kojima首先梳理了线性注意力的前世今生:从 O(n²) 到 O(n),长上下文的效率瓶颈正在被打破,混合注意力与软硬件协同是下一步关键。智谱 AI 技术布道者 Yuxuan Zhang 现场揭秘了 GLM 系列的开源演进之路。Minimax AI 模型业务开发负责人 Daniel 聚焦从“模型”到“系统”的转身,展示 Minimax 如何以长上下文、高并发推理和原生多模态,支撑面向欧洲市场的自主智能体基础设施。东北大学教授 Yanzhi Wang 则把模型扔进物理考场:基于流匹配和 DPO 强化学习,让 AI 感知牛顿力学、光学甚至材料特性,并开源了覆盖 50-60 项物理指标的基准竞技场。来自中国科学院自动化研究所 & 北京智源人工智能研究院的博士研究生 Jiabei Chen 用 OpenSeek-10B 证明:预训练不一定要“烧钱”——通过小模型扩展加 Muon 优化器,用 1/20 的算力跑出超越 Qwen3-14B 的成绩,且已能在多厂商芯片上高效运行。

紧接着,LF AI & Data Foundation 董事会主席 Zhipeng Huang 提出构建全球首个开源多模态 Speedrun 模型,借鉴 modded-nanogpt 等成功经验,试图大幅加速多模态模型从架构到训练/推理的创新周期。华为高级工程师 Zhao Yun 则带来了 HiFloat8,这是一种适配 FP8 生态的渐变式数值格式,无需复杂的动态缩放就能捕获高幅值梯度异常值,在保持 FP16 级精度的同时实现 1.5-1.7 倍 GEMM 性能提升。Max Planck Institute for Intelligent Systems 课题组组长兼首席研究员 Shiwei Liu 发现了一个反直觉的规律:稀疏性不仅能提升效率,还能作为方差调节器缓解 LLM 的“深度诅咒”。通过权重稀疏、注意力稀疏等机制,在下游任务上取得了 4.6% 的准确率提升。上海交通大学副教授 Xingda Wei 则从系统层面出发,分享了基于乘法路由器和超快速扩缩容的大规模推理基础设施,且部分方案已在全球最大 LLM 服务商中部署。

Agentic OS 与应用

当下,AI Agent 不再只是聊天框里的“问答机器”,而是开始真正接管编译器、开发工具甚至整个应用生态。此时一个问题浮出水面:操作系统和应用软件,真的准备好为智能体重构了吗?

在「Agentic OS 与应用」论坛中,华为中央软件院项目总监 Sean Dong(董鑫)分享了仓颉编程语言团队 300 天的 AI 转型实录:通过 Agent Centric Engineering 模式,试点团队实现了最高 2600% 的生产力提升,核心理念简单直接——主动拥抱 AI,打破思维枷锁。随后,Eclipse Foundation 开发工具项目经理 Thomas Froment 直击痛点:谁真正掌控你的 AI Agent?为此他带来了 Theia AI 和 Open VSX 两套厂商中立的基础设施,后者月下载量超 3 亿次,支撑着 Cursor、Windsurf 等主流工具,让组织在 Agent 时代依然握有控制权。

FOSS Shanghai 创始人 Gregory Terzian 以 Servo Web 引擎为实验场,探索 AI 辅助编程能否帮助这个开源项目缩小与主流引擎的功能差距。而 Typeform 资深 AI 工程师 Susanna Wong 则提出一个更激进的范式:Agentic 应用不应由 UI 定义,而应由能力定义。她带来的 WebMCP,能将 React 应用逻辑直接暴露为结构化、可组合的能力,让 Agent 无需逆向工程即可与前端交互——这或许才是真正“为 AI 原生而生”的应用形态。

边缘侧 Agentic AI

当大模型不再唯算力论,消费级 GPU、智能手机甚至嵌入式设备都开始承载数百亿参数的智能体时,边缘侧的 Agentic AI 正在从“能不能跑”进化到“怎么跑好”。在今日大会的「边缘侧 Agentic AI」论坛中,四位技术专家从异构推理、端侧模型、自动化部署到统一硬件生态,给出了各自务实且开放的答案。

清华大学博士生 Ervin Xie 带来了 KTransformers——一个开源的 CPU-GPU 异构推理框架,通过 CPU-GPU 异构与专家卸载,让 DeepSeek-V3 这样的 MoE 模型在普通消费级硬件上跑出 35+ tokens/秒的解码速度,数据中心不再是门槛。OpenBMB ModelBest 开源软件办公室负责人、运营负责人 Chenzhe Jing 则聚焦实际落地,展示了 MiniCPM 系列端侧模型在智能座舱、手机、家居和机器人中的真实应用,让每一台设备都具备“原生智能”。

模型部署的繁琐往往被低估,为此,东北大学教授 Yanzhi Wang 用 OminiX 给出了自动化方案:一个 AI 智能体将任意 PyTorch 模型自动转换为 GGML 优化的 C++ 推理代码,在 OpenVLA 上实现 63% 内存缩减和 1.52 倍加速,覆盖语音、视频生成到 VLA 等广泛任务。最后,Red Hat 高级机器学习工程师 Ruben Ortlam 直面硬件碎片化问题,用 Vulkan 作为厂商中立的推理后端,在 llama.cpp 中统一 Intel、AMD、NVIDIA GPU,让边缘 AI 生态真正走向开放。

开源机器人

在 LLM 的“文本世界”之外,机器人正成为 AI 通向物理世界的关键载体。但过去很长一段时间里,硬件成本高企、软件环境割裂、评估标准不一,让“具身智能”更多停留在演示视频里,难以被大规模复现和生产落地。在本次开源机器人论坛上,我们看到了一种全新的可能性:从真机评估标准、人形机器人平台,到模型自进化和仿生灵巧手,一条由开源驱动的具身智能技术栈正在成形。

开源社联合创始人 Emily Chen 带来了 RoboChallenge 年度报告:当前最优 VLA 模型在标准任务中成功率仅 62%,精细操作甚至低于 15%——真实环境的大规模评估,正倒逼具身智能从语义理解走向复杂物理交互。Hugging Face 具身机器人工程师 Virgile Batto 展示了一款几乎全 3D 打印的开源双足机器人平台,大幅降低硬件门槛,让仿真与真实机器的算法无缝迁移成为可能。Reflexion Robotics 创始人兼 CTO Charbel Dandjinou 则让 AI 化身在模拟器中“看见自己”,通过自监督迭代实现超越纯AI方案的人机协作进化。而 Pollen Robotics 研发工程师 Jeremy Laville 带来的开源机器人手,用四根手指、八个自由度和极低的成本,证明了灵巧操作不必昂贵——它更适合用来释放创造力,而非只做重活。

不仅如此,通信、捷径、仿真与手术——开源机器人的边界正在从实验室向外快速延伸。ZettaScale Technology 高级解决方案架构师 Julien Enoch 展示了基于 Zenoh 协议的全新 ROS 2 实现——ros-z。这套纯 Rust、原生 Zenoh 的架构绕过了传统中间件栈,性能更优,还能让非 ROS 生轻松接入机器人世界。谷歌 Intrinsic Agentic AI 研究员 Quentin Delfosse 则敲响了警钟:许多表现“超人”的 AI 智能体其实只是在利用环境中的隐形捷径,一旦任务稍作修改就会彻底崩溃。他主张用大模型和神经符号方法将黑箱策略提炼为可读程序,让可解释性成为鲁棒系统的前提。上海人工智能实验室研究员 Wenzhe Cai 从导航任务切入,分享了如何利用大规模仿真数据训练视觉导航基础模型,用低成本、可规模化的模拟环境弥补真实数据的稀缺。Moon Surgical 系统与 AI 工程经理 Jad Fayad 则将视野拉向手术室——他介绍了横跨 35 家机构的开放协作项目 Open-H,将 778 小时的手术机器人、超声和内窥镜数据统一为标准数据集,并在此之上训练医疗 VLA 基础模型。

当平台越来越丰富,交互也开始有了温度。Algoryn 创始人 Tom Mulder 用一台情感表达型机器人 Reachy Mini 证明:发光眼睛、毫米波传感器这些“不正经”的小实验,反而能解锁意想不到的能力。Hugging Face 机器人工程师 Caroline Pascal 则在 LeRobot 数据集中探索触觉、音频等新模态,平衡多样性与可用性。1ms.ai 创始人 Xavier Tao 与莱斯大学博士研究生 Vector Wang 联手推出了零件成本仅 660 美元的开源双臂移动机器人 XLeRobot,全球已聚集 6000 多名构建者。最后,Robolytics 创始人兼 CEO Luke Lu 结合自身经历分享了机器人研发中“勇于开始、不惧失败”的理念,同时介绍了开源人形机器人遥操作平台 Inhabit 的构建及 AI 工具带来的效率提升。

打开网易新闻 查看精彩图片

当 AI 讨论走向实战,现场工作坊带你真正上手!

除高屋建瓴的 Keynote 分享与细分领域论坛研讨外,本届大会同样注重开发者的动手实践。现场带来 SGLang 工作坊与 Agentic 应用构建工作坊两大实操专场,告别纯理论分享,聚焦框架实操、应用搭建等一线开发刚需,用轻量化实战教学,让前沿技术看得见、学得会、用得上。

SGLang 工作坊

如果说 LLM 推理框架的“卷”已经让人眼花缭乱,那 SGLang 的野心显然不止于此——它要把高性能服务从文本一路覆盖到图像、视频,甚至强化学习后训练。本次「SGLang 工作坊」是一场面向开发者的硬核实操课。

SGLang 开源维护者 Xinyuan Tong 在开幕致辞中拆解了 SGLang 性能背后的设计原则:原生多模态、推测解码(Eagle3/MTP)、Hopper/Blackwell 上的 FP8/NVFP4 量化,并分享了维护一个 2.4 万星标的开源项目的实战经验。随后,他带领了第一个实操实验,现场运行开放模型,让参与者亲身体验 SGLang 在生产级 LLM 服务中的部署流程。Atlas Cloud AI LLC 算法工程师 Eva Ma 与 SGLang 开发者 Yuhao Yang 分别从演讲和实操两个角度,展示了 SGLang-Diffusion 如何通过高级并行化、分布式 VAE 和算子融合,为图像/视频生成提供生产级推理能力。最后,RadixArk 技术团队成员 Ethan (Yusheng) Su 直接展示了 SGLang 在 RL 后训练中的核心角色:使用 Miles RL 框架,以 SGLang 为采样后端,搭建端到端的 RL 训练流水线——这些经验直接来自全球超 40 万块 GPU 的生产实践,让开源开发者也能在自己的基础设施上跑稳 RL 训练。

构建 Agentic 应用工作坊

在“构建 Agentic 应用工作坊”现场,讨论的重点落在如何把 AI 能力真正做成可运行的工程系统,而不是停留在概念层面。Makepad 联合创始人 Rik Arends 展示了如何利用 Makepad 快速构建高性能 Rust 应用,把界面交互与底层性能结合成一个完整开发路径;随后波特兰州立大学计算机科学副教授 Bart Massey 通过 Second State 的 EchoKit 嵌入式 Rust 语音助手设备,演示了 AI 在端侧设备中的落地方式。这场干货满满的实战演示共同指向一个趋势:Agentic 应用的核心,不只是“智能”,而是让智能稳定嵌入到真实系统与设备之中。

午餐学习会

“LLM 之后是什么?”这是很多人关心的问题,也成为 GOSIM Paris 2026 现场午餐学习会的讨论主题之一。Fundamental 应用人工智能负责人 Alexandre Gerbeaux 在分享中指出,大语言模型确实重新定义了人与非结构化数据的交互方式,但现实中企业数据的主体仍然是结构化数据——大量存在于表格之中,规模往往达到数百万行列。在这一背景下,大表格模型(LTM)开始作为新的模型类别出现,用于专门处理和理解结构化数据,从而弥合当前模型能力与企业数据现实之间的差距。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

极客同台竞技,硬核作品悉数亮相

科创赛场迎来高光时刻,GOSIM Spotlight 2026 前沿创作者盛典、双赛道黑客松「Agentic Hackathon」和「Robotics Hackathon」赛事、「FlagOS KernelGen 24 小时悬赏挑战赛」圆满举办。历经 5 月 5 日至 6 日两天高强度角逐,各类创新项目与实践成果集中亮相,为本次巴黎大会画上鲜活的收尾篇章。

在 GOSIM Spotlight 2026 Frontier Creators 创作者赛道上,过去两天,从多模态生成到交互表达,从工具链到内容形态实验,10 组入围创作者在 Station F 完成了作品展示与分享。这些项目不只是“用工具做内容”,更多是在解决具体问题,每一个项目都围绕一个明确的创作痛点展开。

黑客松维度,两场赛事同步进行。Agentic Hackathon 覆盖文本、语音、音乐、视频到演示生成等多条赛道,参赛团队基于智谱 GLM、Moonshot Kimi、MiniMax 等模型快速搭建应用原型,两天时间里完成了从想法到可运行演示的转化。Robotics Hackathon 则更偏“实战”,所有任务都在 OpenArm 全开源人形机械臂上完成,包括抓取拆装、液体倾倒、布料折叠、人机递接等操作,参赛者在现场不断调试机械结构与控制代码,几乎全程都在动手解决问题。

FlagOS KernelGen 24 小时悬赏挑战赛同样精彩。这项挑战以 Triton 语言为核心,聚焦内核代码生成与优化,对参赛者的工程能力和工具使用效率都是高强度考验。

从内容创作到机器人操作,从应用层原型到系统级优化,这些获奖项目有一个共同点:都能在现场跑起来,并且能对准一个具体问题给出答案。

打开网易新闻 查看精彩图片

GOSIM Paris 2026 见证开源 AI 生态蓬勃发展,期待 10 月杭州再聚!

至此,GOSIM Paris 2026 正式落下帷幕。作为深耕全球开源协作的盛会,本次巴黎之行汇聚全球开发者与行业从业者,现场交流热烈、思想碰撞不断。

打开网易新闻 查看精彩图片

当然,整场大会的顺利落地,离不开各家企业、开源社区与生态伙伴的同心同行、携手共建。

由衷感谢首席赞助商华为,以及 OpenHarmony、Fundamental、OpenBMB、MiniMax、KIMI、智谱、Novita、RadixArk、databricks 等合作伙伴的重磅加持与倾力相助;同时诚挚感谢 BAAI、OuiCrea、全法中国青年科创协会、中法人工智能协会、Olares、Second State、SGLang 社区、vLLM 社区、FlagOS 社区、Hugging Face、开源社、Unaite、42-ai、AI By The Bay、InnAIO、Jumeau.AI 等一众支持伙伴的踊跃入驻、积极参与。

各大展商与生态伙伴齐聚现场,以多元展示、技术共创凝聚产业合力,持续丰富开源 AI 生态版图,为这场国际盛会增添了浓厚活力与产业价值。

三天思想交锋与实践探索圆满收官,跨地域的开源协作之路仍在继续。本次盛会搭建起高效的全球对话桥梁,沉淀了大量落地经验与行业共识。期待未来再度相聚,持续携手探索智能技术新方向,共建更加开放、繁荣的全球开源生态。

打开网易新闻 查看精彩图片