导语
集智俱乐部、集智学园创始人,北京师范大学张江教授开设了,致力于打破学科壁垒,将复杂系统与人工智能深度融合。从神经网络到因果推断,从世界模型到多尺度建模,甚至包含最前沿的“氛围编程(Vibe Coding)”实战,带你亲手落地AI项目。
作为系列课程的第九讲,张江教授将以「复杂系统自动建模 II:推理」为题,系统讲解如何用已训练的模型从新数据中挖掘复杂系统的隐藏结构与规律。正式分享将于5月11日(周一)13:30-16:15腾讯会议线上直播,北师大海淀区线下授课(助教可协助入校)。
课程简介
图神经网络可以从基因表达时间序列中重建调控网络,链式思维提示使PaLM 540B在GSM8K数学推理测试中的准确率从18%跃升至57%,这两件事共享同一个核心问题:利用训练好的模型,从新数据中推断出隐藏的结构和规律。
本次课程将系统介绍面向复杂系统的推理方法,沿四条主线展开。结构推理部分介绍Gumbel图网络(GGN)与AIDD框架如何联合学习Kuramoto振荡器、布尔网络等系统的拓扑结构与节点动力学,以及NRI变分自编码器框架下的无监督关系推断;缺失信息推理部分涵盖不可观测节点与链接的网络补全(GIN框架、C-GIN),以及时空物理推断网络(SPIN);临界转变预测部分介绍临界慢化、闪烁等早期预警指标,以及GIN-GRU深度学习框架在Kuramoto振荡器与非洲植被生态系统上的临界点预测;大语言模型推理部分涵盖链式思维提示(CoT)、最少到最多提示(Least-to-Most Prompting)、推断缩放律,以及STaR自举推理算法。
学完本课程,你能够理解从观测数据重建复杂网络的完整方法链,掌握缺失数据插补和临界转变预测的技术工具,并理解现代大语言模型推理能力提升的核心机制。
课程大纲
What is Inference?
Structural Inference
Inferring Missing Information
Anticipating Critical Transitions
Inference of LLM
关键术语
Gumbel Softmax:将离散类别采样转化为可微近似的重参数化技巧,使含离散随机变量的网络可端到端训练
结构推理(Structural Inference):仅凭节点行为时间序列,推断系统中节点间交互关系与网络拓扑
AIDD:通用深度学习框架,通过可微Bernoulli采样同步重建网络结构与节点动力学
临界点(Tipping Point):复杂系统中微小触发可导致状态突变至对立稳态的临界阈值
临界慢化(Critical Slowing Down):系统接近临界点时,扰动后恢复平衡速度减慢,方差增大
NRI(神经关系推断):以变分自编码器同时学习互动系统潜在关系图与动力学的无监督模型
链式思维提示(Chain-of-Thought Prompting):在提示词中提供中间推理步骤示例,引导大模型逐步推导复杂问题
推理缩放律(Inference Scaling Laws):描述推理时计算量与模型性能权衡关系的经验规律,指导计算最优推理配置
STaR(自教推理机):通过迭代生成推理链、过滤正确答案、微调模型的自举式推理增强方法
课程信息
课程主题:复杂系统自动建模 II:推理
课程时间:2026年5月11日(周一) 13:30-16:15
课程形式:腾讯会议(会议信息见群内通知)/北师大海淀区线下授课(助教可协助入校);集智学园网站录播(3个工作日内上线)
课程主讲人
张江,北京师范大学系统科学学院教授,集智俱乐部、集智学园创始人,集智科学研究中心理事长,曾任腾讯研究院、华为战略研究院等特聘顾问。主要研究领域包括因果涌现、复杂系统分析与建模、规模理论等。
个人主页:https://jake.swarma.org/
课程适用对象
理工科背景高年级本科生
理工科背景硕士、博士研究生
报名须知
1. 课程形式:
参与方式:付费学员可参与腾讯会议直播/北师大海淀区线下授课(助教可协助入校)
授课形式:
平时:课堂讨论与内容共创
结课:项目汇报
2. 课程周期:2026年3月2日-2026年6月22日,每周一 13:30-16:15进行。
3. 课程定价:399元
课程链接:https://campus.swarma.org/v3/course/5684?from=wechat
付费流程:
课程页面添加学员登记表,添加助教微信入群;
课程可开发票。
课程共创任务:课程字幕
为鼓励学员深度参与、积极探索,我们致力于形成系列化知识传播成果,并构建课程知识共建社群。为此,我们特别设立激励机制,让您的学习之旅满载收获与成就感。
课程以老师讲授为主,每期结束后,助教会于课程群内发布字幕共创任务。学员通过参与这些任务,不仅能加深对内容的理解,还可获得积分奖励。积分可兑换其他读书会课程或实物奖品,助力您的持续成长。
推荐课程
参考课程
吴恩达:Build with Andrew https://www.deeplearning.ai/courses/build-with-andrew/
Jure Leskovec: Machine Learning with Graphs, StanfordCS224W.https://www.youtube.com/playlist?list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn
Steve Brunton: Data Driven Science and Engineering, University of Washingtonhttps://www.youtube.com/playlist?list=PLMrJAkhIeNNRpsRhXTMt8uJdIGz9-X_1-
Karthik Duraisamy: DATA-DRIVEN ANALYSIS AND MODELING OF COMPLEX SYSTEMS, Michigen institute for computational discovery and engineering, Michigen University.https://micde.umich.edu/academic-programs-old/data-driven-course/
Sergey Levine: Deep Reinforcement Learning, CS 285 at UC Berkeley.http://rail.eecs.berkeley.edu/deeprlcourse/
【集智学园网站资源】
对复杂系统连续变化自动建模——Neural Ordinary Differential Equations解读https://campus.swarma.org/course/2046
复杂网络自动建模在大气污染中的应用https://campus.swarma.org/course/1998
两套因果框架深度剖析:潜在结果模型与结构因果模型https://campus.swarma.org/course/2526
稳定学习:发掘因果推理和机器学习的共同基础https://campus.swarma.org/course/2323
因果强化学习https://campus.swarma.org/course/2156
张江:因果与机器学习能够破解涌现之谜吗https://campus.swarma.org/course/4540
因果涌现理论提出者:Erik Hoel主题报告https://campus.swarma.org/course/4317
如何从数据中发现因果涌现——神经信息压缩器https://campus.swarma.org/course/4874
标准化流技术简介https://campus.swarma.org/course/1999
带隐状态的强化学习世界模型https://campus.swarma.org/course/4848
热门跟贴