打开网易新闻 查看精彩图片

导语

集智学园联合东京都市大学贾伊阳老师共同开设了「」课程,本系列课程将以严谨的理论推导为核心,逐步建立泛函分析的基础架构。第一阶段将探讨从有限维跨越到无限维的动机与基础;第二阶段将重点建立度量与完备性,掌握 Banach 空间与不动点定理的精髓;第三阶段将深入探讨 Hilbert 空间的几何结构与对偶空间的映射体系。最终,在第四阶段,将梳理完整的结构总览与应用地图,透视这些纯粹的数学工具如何作为底层基石,广泛应用于现代物理、复杂系统模拟与前沿计算科学中。

作为系列课程的第五讲,贾伊阳老师将以「范数与 Banach 空间」为主题,这一节中范数是“选择关心哪种误差”的语言,而Banach 空间的完备性,保证这种选择在极限处仍然成立,本节课程将聚焦误差控制与算子稳定性场景,系统阐述范数的定义及常见的ℓᵖ与C[a,b]空间。课程将深入解析Banach空间的完备赋范属性,体会其作为“确保解存在性的核心数学舞台”的意义。正式分享将于5月10日(周日)19:00-20:30进行。

打开网易新闻 查看精彩图片

主题:函数空间作为向量空间

课程简介

神经网络的谱范数归一化为何能稳定 GAN 的训练?最大均值差异(MMD)如何把两个概率分布的比较转化为一个函数空间的范数计算?这些机器学习的技术细节,根植于同一套数学结构:范数与 Banach 空间。

本系列课程第五讲,以“误差为什么重要”为起点建立范数直觉:不同范数衡量不同类型的误差,算子稳定性取决于误差能否被控制在可接受范围内。在此基础上引入 Banach 空间的完备性,解释为何理论上许多算法必须在完备空间中才有意义。

课程内容直接锚定一线研究文献。Gretton 等人(JMLR 2012)用 RKHS 范数实现两样本检验;Bartlett 等人(NeurIPS 2017)用谱范数建立神经网络的泛化界。课程逐步拆解这两篇论文背后的数学机制,并延伸至 Path norm、Wasserstein 距离、Sobolev 范数等当代学习理论的核心工具。理论补充部分讨论算子范数的代数性质、有界线性算子的连续性、组合算子的误差传播,以及 Ban 作为 enriched category 的结构视角。

学完本讲,你能够准确理解不同范数选择背后的误差几何,读懂涉及谱范数和 RKHS 范数的机器学习论文,并在完备性假设的背景下评价算法的稳定性保证。

课程大纲

1. 为什么很多算法在理论上需要完备性?

a. 目标:理解三个问题:

  1. 如何用范数度量误差?

  2. 算子为什么可能放大误差?

  3. Banach 空间为什么是讨论稳定性的基本空间?

2. 场景驱动:误差为什么重要

3. 论文1:概率密度作为范数

a. Gretton et al. (2012), A Kernel Two-Sample Test, JMLR.

4. 论文2:谱范数(算子范数)控制算子稳定性与复杂度

a. Bartlett, Foster, Telgarsky, “Spectrally-normalized margin bounds for neural networks”, NeurIPS 2017

5. 其他相关文献

6. 关于Banach空间的补充

关键术语

  • Banach 空间:完备的赋范线性空间;Cauchy 序列的极限必须仍在空间内,许多收敛性定理以此为前提。

  • 算子范数(谱范数):线性算子将单位球映射出的最大拉伸倍数,衡量算子对输入误差的放大程度。

  • RKHS(再生核 Hilbert 空间):由核函数定义的函数空间,每个点处的函数值可通过核的内积表示。

  • 最大均值差异(MMD):用 RKHS 范数定义的概率分布距离,可直接由样本估计,无需密度估计。

  • 谱归一化(Spectral Normalization):将权重矩阵除以其谱范数,将网络的 Lipschitz 常数控制在 1 以内。

  • 有界线性算子:满足 ‖Ax‖ ≤ C‖x‖ 的线性映射,有界与连续在赋范空间中等价。

  • Path norm:ReLU 网络中沿激活路径积的范数,对参数的重缩放变换不变,更准确刻画网络复杂度。

  • Wasserstein 距离:基于最优传输的概率分布距离,在生成模型(WGAN)理论分析中广泛使用。

  • Sobolev 范数:同时控制函数值与各阶导数大小的范数,用于度量函数的光滑性与对扰动的稳定性。

  • Enriched category(丰化范畴):Ban 的代数结构视角;态射集本身构成 Banach 空间,保留线性与度量信息。

课程信息

课程主题:范数与 Banach 空间

课程时间:2026年5月10日(周日) 19:00-20:30

课程形式:腾讯会议(会议信息见群内通知);集智学园网站录播(3个工作日内上线)

课程主讲人

贾伊阳,东京都市大学讲师、前日本女子大学助理教授,前日本成蹊大学助理教授。研究重点是计算复杂性,算法,以及范畴相关理论。集智学园《》课程讲师。

课程适用对象

  • 做微分方程、数值算法、反问题、信号处理、控制的学习者与研究者

  • 做优化、机器学习、统计推断,希望理解正则化与泛化的结构来源的研究者

  • 读量子/数学物理文献,希望把 Hilbert 空间与算子语言用顺手的研究者

  • 更广义地:经常处理“函数作为未知量”的问题、并且想要一套可迁移框架的研究者


你会获得
  1. 面对一个新问题,你能先问对问题:该在哪个空间里解?该用哪个范数衡量误差?需要什么完备性?算子是否有界?

  2. 你能理解常见方法背后的统一逻辑:迭代为何收敛、正则化为何稳定、最小二乘为何等价于投影、弱解为何成立。

  3. 你会获得一套“抽象但可落地”的语言:写证明、读论文、做建模时,能把碎片化技巧收束到结构层面。


报名须知
  1. 课程形式:腾讯会议直播,集智学园网站录播。本系列课程不安排免费直播。

  2. 课程周期:2026年3月29日-2026年6月14日,每周日晚19点-21点进行。

  3. 课程定价:原价499

    1. 早早鸟价299,截止时间:2026年3月22日中午12点

    2. 早鸟价399,截止时间:2026年3月30日中午12点

课程链接:https://campus.swarma.org/v3/course/5700?from=wechat

付费流程:

  1. 课程页面添加学员登记表,添加助教微信入群;

  2. 课程可开发票。

课程共创任务:课程字幕

为鼓励学员深度参与、积极探索,我们致力于形成系列化知识传播成果,并构建课程知识共建社群。为此,我们特别设立激励机制,让您的学习之旅满载收获与成就感。

课程以老师讲授为主,每期结束后,助教会于课程群内发布字幕共创任务。学员通过参与这些任务,不仅能加深对内容的理解,还可获得积分奖励。积分可兑换其他读书会课程或实物奖品,助力您的持续成长。