导语
集智俱乐部、集智学园创始人,北京师范大学张江教授开设了,致力于打破学科壁垒,将复杂系统与人工智能深度融合。从神经网络到因果推断,从世界模型到多尺度建模,甚至包含最前沿的“氛围编程(Vibe Coding)”实战,带你亲手落地AI项目。
作为系列课程的第七讲,张江教授将以「AIGC背后的生成模型系统梳理:从动机、数学原理到训练逻辑」为题,系统讲解GAN、VAE、归一化流、扩散模型与CLIP五大范式的数学原理,弄清各模型训练目标为何不同,并延伸至图结构数据的生成方法,覆盖图像生成与图生成两条主线。正式分享将于4月20日(周一)13:30-16:15腾讯会议线上直播,北师大海淀区线下授课(助教可协助入校)。
课程简介
DALL-E 2、Stable Diffusion 背后的生成机制是什么?本节课程将给出系统性的回答。
课程以一个问题作为主轴:生成模型能否精确计算数据分布 p(x)?这个问题的答案,决定了各模型训练目标为何不同,例如Normalizing Flow 直接最大化似然,VAE 退而优化变分下界,GAN 绕开 p(x) 改用对抗损失,扩散模型则通过逐步去噪学习数据分布。沿此逻辑,课程依次讲解 GAN、VAE、归一化流、扩散模型、CLIP 五个范式,最后延伸至图生成与分子/蛋白质结构生成应用。
学完这门课,你能掌握不同生成模型各自的数学原理、训练目标和适用场景,以及如何将图像生成的工具迁移到图结构数据上。
课程大纲
生成模型基础
AIGC应用全景:文本生图、文本生视频、分子生成
生成模型分类框架
生成对抗网络(GAN)
对抗训练目标(min-max)与生成器-判别器架构
条件GAN、pix2pix与CycleGAN
变分自编码器(VAE)与归一化流
ELBO推导、KL散度与重参数化技巧
可逆变换与Jacobian行列式:RealNVP、Neural ODE
扩散模型
DDPM:前向加噪与逆向去噪(U-Net参数化)
随机微分方程统一框架
CLIP与文本驱动图像生成
对比预训练:4亿图文对与零样本推理
DALL-E 2:CLIP先验 + 扩散解码器
图生成
经典随机图模型与深度生成方法对比
GraphRNN(序列生成)与Graph Normalizing Flow(一次性生成)
分子图与蛋白质结构生成应用
关键术语
ELBO(证据下界):VAE训练目标,用可计算下界代替难以直接优化的对数似然
重参数化技巧:将随机采样改写为确定性变换加噪声的形式,使梯度能反向传播通过采样步骤
Jacobian行列式:归一化流中用于计算变量变换后概率密度缩放因子的矩阵行列式
分数匹配(Score Matching):通过最小化模型分数函数与真实分数函数之差来训练模型,无需计算归一化常数
随机微分方程(SDE):将扩散前向过程(数据→噪声)和逆向生成过程(噪声→数据)统一表达的连续时间框架
Classifier Guidance:将分类器的梯度注入扩散模型的逆向过程,引导生成满足特定条件的样本
GraphRNN:将图分解为BFS节点序列,用RNN自回归逐节点生成边连接关系的模型
GRevNets(可逆图神经网络):将RealNVP耦合层设计迁移到图数据,实现节点特征的可逆变换以支持精确似然计算
课程信息
课程主题:大语言模型的推理机制与自指
课程时间:2026年4月20日(周一) 13:30-16:15
课程形式:腾讯会议(会议信息见群内通知)/北师大海淀区线下授课(助教可协助入校);集智学园网站录播(3个工作日内上线)
课程主讲人
张江,北京师范大学系统科学学院教授,集智俱乐部、集智学园创始人,集智科学研究中心理事长,曾任腾讯研究院、华为战略研究院等特聘顾问。主要研究领域包括因果涌现、复杂系统分析与建模、规模理论等。
个人主页:https://jake.swarma.org/
课程适用对象
理工科背景高年级本科生
理工科背景硕士、博士研究生
报名须知
1. 课程形式:
参与方式:付费学员可参与腾讯会议直播/北师大海淀区线下授课(助教可协助入校)
授课形式:
平时:课堂讨论与内容共创
结课:项目汇报
2. 课程周期:2026年3月2日-2026年6月22日,每周一 13:30-16:15进行。
3. 课程定价:399元
课程链接:https://campus.swarma.org/v3/course/5684?from=wechat
付费流程:
课程页面添加学员登记表,添加助教微信入群;
课程可开发票。
课程共创任务:课程字幕
为鼓励学员深度参与、积极探索,我们致力于形成系列化知识传播成果,并构建课程知识共建社群。为此,我们特别设立激励机制,让您的学习之旅满载收获与成就感。
课程以老师讲授为主,每期结束后,助教会于课程群内发布字幕共创任务。学员通过参与这些任务,不仅能加深对内容的理解,还可获得积分奖励。积分可兑换其他读书会课程或实物奖品,助力您的持续成长。
推荐课程
参考课程
吴恩达:Build with Andrew https://www.deeplearning.ai/courses/build-with-andrew/
Jure Leskovec: Machine Learning with Graphs, StanfordCS224W.https://www.youtube.com/playlist?list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn
Steve Brunton: Data Driven Science and Engineering, University of Washingtonhttps://www.youtube.com/playlist?list=PLMrJAkhIeNNRpsRhXTMt8uJdIGz9-X_1-
Karthik Duraisamy: DATA-DRIVEN ANALYSIS AND MODELING OF COMPLEX SYSTEMS, Michigen institute for computational discovery and engineering, Michigen University.https://micde.umich.edu/academic-programs-old/data-driven-course/
Sergey Levine: Deep Reinforcement Learning, CS 285 at UC Berkeley.http://rail.eecs.berkeley.edu/deeprlcourse/
【集智学园网站资源】
对复杂系统连续变化自动建模——Neural Ordinary Differential Equations解读https://campus.swarma.org/course/2046
复杂网络自动建模在大气污染中的应用https://campus.swarma.org/course/1998
两套因果框架深度剖析:潜在结果模型与结构因果模型https://campus.swarma.org/course/2526
稳定学习:发掘因果推理和机器学习的共同基础https://campus.swarma.org/course/2323
因果强化学习https://campus.swarma.org/course/2156
张江:因果与机器学习能够破解涌现之谜吗https://campus.swarma.org/course/4540
因果涌现理论提出者:Erik Hoel主题报告https://campus.swarma.org/course/4317
如何从数据中发现因果涌现——神经信息压缩器https://campus.swarma.org/course/4874
标准化流技术简介https://campus.swarma.org/course/1999
带隐状态的强化学习世界模型https://campus.swarma.org/course/4848
热门跟贴