导语
集智学园联合东京都市大学贾伊阳老师共同开设了「」课程,本系列课程将以严谨的理论推导为核心,逐步建立泛函分析的基础架构。第一阶段将探讨从有限维跨越到无限维的动机与基础;第二阶段将重点建立度量与完备性,掌握 Banach 空间与不动点定理的精髓;第三阶段将深入探讨 Hilbert 空间的几何结构与对偶空间的映射体系。最终,在第四阶段,将梳理完整的结构总览与应用地图,透视这些纯粹的数学工具如何作为底层基石,广泛应用于现代物理、复杂系统模拟与前沿计算科学中。
作为系列课程的第五讲,贾伊阳老师将以「范数与 Banach 空间」为主题,这一节中范数是“选择关心哪种误差”的语言,而Banach 空间的完备性,保证这种选择在极限处仍然成立,本节课程将聚焦误差控制与算子稳定性场景,系统阐述范数的定义及常见的ℓᵖ与C[a,b]空间。课程将深入解析Banach空间的完备赋范属性,体会其作为“确保解存在性的核心数学舞台”的意义。正式分享将于5月10日(周日)19:00-20:30进行。
主题:函数空间作为向量空间
课程简介
神经网络的谱范数归一化为何能稳定 GAN 的训练?最大均值差异(MMD)如何把两个概率分布的比较转化为一个函数空间的范数计算?这些机器学习的技术细节,根植于同一套数学结构:范数与 Banach 空间。
本系列课程第五讲,以“误差为什么重要”为起点建立范数直觉:不同范数衡量不同类型的误差,算子稳定性取决于误差能否被控制在可接受范围内。在此基础上引入 Banach 空间的完备性,解释为何理论上许多算法必须在完备空间中才有意义。
课程内容直接锚定一线研究文献。Gretton 等人(JMLR 2012)用 RKHS 范数实现两样本检验;Bartlett 等人(NeurIPS 2017)用谱范数建立神经网络的泛化界。课程逐步拆解这两篇论文背后的数学机制,并延伸至 Path norm、Wasserstein 距离、Sobolev 范数等当代学习理论的核心工具。理论补充部分讨论算子范数的代数性质、有界线性算子的连续性、组合算子的误差传播,以及 Ban 作为 enriched category 的结构视角。
学完本讲,你能够准确理解不同范数选择背后的误差几何,读懂涉及谱范数和 RKHS 范数的机器学习论文,并在完备性假设的背景下评价算法的稳定性保证。
课程大纲
1. 为什么很多算法在理论上需要完备性?
a. 目标:理解三个问题:
如何用范数度量误差?
算子为什么可能放大误差?
Banach 空间为什么是讨论稳定性的基本空间?
2. 场景驱动:误差为什么重要
3. 论文1:概率密度作为范数
a. Gretton et al. (2012), A Kernel Two-Sample Test, JMLR.
4. 论文2:谱范数(算子范数)控制算子稳定性与复杂度
a. Bartlett, Foster, Telgarsky, “Spectrally-normalized margin bounds for neural networks”, NeurIPS 2017
5. 其他相关文献
6. 关于Banach空间的补充
关键术语
Banach 空间:完备的赋范线性空间;Cauchy 序列的极限必须仍在空间内,许多收敛性定理以此为前提。
算子范数(谱范数):线性算子将单位球映射出的最大拉伸倍数,衡量算子对输入误差的放大程度。
RKHS(再生核 Hilbert 空间):由核函数定义的函数空间,每个点处的函数值可通过核的内积表示。
最大均值差异(MMD):用 RKHS 范数定义的概率分布距离,可直接由样本估计,无需密度估计。
谱归一化(Spectral Normalization):将权重矩阵除以其谱范数,将网络的 Lipschitz 常数控制在 1 以内。
有界线性算子:满足 ‖Ax‖ ≤ C‖x‖ 的线性映射,有界与连续在赋范空间中等价。
Path norm:ReLU 网络中沿激活路径积的范数,对参数的重缩放变换不变,更准确刻画网络复杂度。
Wasserstein 距离:基于最优传输的概率分布距离,在生成模型(WGAN)理论分析中广泛使用。
Sobolev 范数:同时控制函数值与各阶导数大小的范数,用于度量函数的光滑性与对扰动的稳定性。
Enriched category(丰化范畴):Ban 的代数结构视角;态射集本身构成 Banach 空间,保留线性与度量信息。
课程信息
课程主题:范数与 Banach 空间
课程时间:2026年5月10日(周日) 19:00-20:30
课程形式:腾讯会议(会议信息见群内通知);集智学园网站录播(3个工作日内上线)
课程主讲人
贾伊阳,东京都市大学讲师、前日本女子大学助理教授,前日本成蹊大学助理教授。研究重点是计算复杂性,算法,以及范畴相关理论。集智学园《》课程讲师。
课程适用对象
做微分方程、数值算法、反问题、信号处理、控制的学习者与研究者
做优化、机器学习、统计推断,希望理解正则化与泛化的结构来源的研究者
读量子/数学物理文献,希望把 Hilbert 空间与算子语言用顺手的研究者
更广义地:经常处理“函数作为未知量”的问题、并且想要一套可迁移框架的研究者
你会获得
面对一个新问题,你能先问对问题:该在哪个空间里解?该用哪个范数衡量误差?需要什么完备性?算子是否有界?
你能理解常见方法背后的统一逻辑:迭代为何收敛、正则化为何稳定、最小二乘为何等价于投影、弱解为何成立。
你会获得一套“抽象但可落地”的语言:写证明、读论文、做建模时,能把碎片化技巧收束到结构层面。
报名须知
课程形式:腾讯会议直播,集智学园网站录播。本系列课程不安排免费直播。
课程周期:2026年3月29日-2026年6月14日,每周日晚19点-21点进行。
课程定价:原价499
早早鸟价299,截止时间:2026年3月22日中午12点
早鸟价399,截止时间:2026年3月30日中午12点
课程链接:https://campus.swarma.org/v3/course/5700?from=wechat
付费流程:
课程页面添加学员登记表,添加助教微信入群;
课程可开发票。
课程共创任务:课程字幕
为鼓励学员深度参与、积极探索,我们致力于形成系列化知识传播成果,并构建课程知识共建社群。为此,我们特别设立激励机制,让您的学习之旅满载收获与成就感。
课程以老师讲授为主,每期结束后,助教会于课程群内发布字幕共创任务。学员通过参与这些任务,不仅能加深对内容的理解,还可获得积分奖励。积分可兑换其他读书会课程或实物奖品,助力您的持续成长。
热门跟贴