概率论与随机过程
Probability Theory and Stochastic Process
课程基本信息
- 课程代码:PSYC1505
- 课程性质:专业必修课程
- 学分 / 学时:3 学分 / 54 学时
- 开课单位:心理与认知科学学院
- 适用专业:心理学 + 计算机 双学位
- 授课语言:中文
上课安排
- 时间:第 1–17 周,每周二 11–13 节
- 地点:普陀校区 · 教书院 132
- 开课时间:2026 年 3 月 3 日
课程时间表(Course Schedule)
| 周次 / 日期 | 主题 | 内容简介 | 作业及项目节点 |
|---|---|---|---|
| 第 1 周 2026‑03‑03 |
概率表征 1 | 概率论的三条基本规则(乘法规则、求和规则、贝叶斯公式)与贝叶斯心智:大脑如何把感知理解为”在噪声中做后验推断”。从先验、似然到后验,建立不确定性推理的统一语言;概率图模型的整体视角。 期末项目预告:介绍基于游戏范式的行为建模课题;说明 3-4 人分组与基于同一数据集的期末项目评审机制。 |
启动项目分组与选题讨论 |
| 第 2 周 2026‑03‑10 |
概率表征 2 | 贝叶斯网络(有向无环图)的定义与因子分解;父节点、d-分离与局部马尔可夫性质;马尔可夫毯的认知含义——为什么大脑只需关注”近邻”信息就足以做出最优推断。 | 确定项目分组名单 |
| 第 3 周 2026‑03‑17 |
概率表征 3 | 马尔可夫网络(无向图)与势函数;因子图的统一表示;Explaining Away(解释消解)在知觉中的直觉:观察到一个结果后,为什么会”压制”对另一个原因的信念? | 第一章结束 |
| 第 4 周 2026‑03‑24 |
概率推断算法 1 | 推断作为大脑的核心计算任务:边缘概率(我最可能处于哪个状态?)与 MAP 推断(最佳解释是什么?)的认知含义;变量消元法的原理与局限。 | 🎮 项目启动:发布线上游戏实验平台,学生进入游戏进行行为采集和测试;📍 交作业 1 |
| 第 5 周 2026‑03‑31 |
概率推断算法 2 | 信念传播(Belief Propagation):消息如何在图上局部传递、汇聚为全局推断结果;联合树算法的构建与一致性。信念传播与大脑中前馈-反馈信号流的对应关系。 | 第二章结束 |
| 第 6 周 2026‑04‑07 |
概率学习 1 | 学习作为统计推断:感知系统如何从有噪声的观测中”拟合”世界的参数?最大似然估计(MLE)与最大后验估计(MAP)的区别;过拟合与正则化的认知类比——为什么大脑也需要”先验约束”来避免过度解读? | |
| 第 7 周 2026‑04‑14 |
概率学习 2 | 贝叶斯参数学习:学习即推断——参数是未知量,数据是观测,学习的过程就是计算后验。Beta-二项共轭:先验伪计数如何被数据计数更新;先验强度与数据量之间的权衡,对应认知中的”经验 vs. 新证据”。 | |
| 第 8 周 2026‑04‑21 |
概率学习 3 | 隐变量学习与 EM 算法:当存在不可观测的隐因时如何学习?E 步(推断隐变量)与 M 步(更新模型)的交替迭代,类比大脑”推断感知原因 → 更新内部表征”的循环。混合高斯模型(GMM)作为范畴感知的概率描述。 | 第三章结束 |
| 第 9 周 2026‑04‑28 |
概率时序模型 1 | 时间是认知的基本维度。马尔可夫假设:大脑不存储完整历史,而是将过去压缩进”当前状态”;隐马尔可夫模型(HMM)的三要素:初始分布、转移概率、发射概率。HMM 作为语音、行为序列与注意状态切换的统一模型框架。 | 📊 数据发放:正式发放实验室采集的标准化游戏行为序列数据集 |
| 第 10 周 2026‑05‑05 |
概率时序模型 2 | HMM 的三类核心问题与算法:前向后向算法(隐状态的后验估计)、Viterbi 算法(最可能状态序列解码)与 Baum-Welch 算法(参数学习)。神经解码中的序列推断应用。 | 📍 交作业 2(涵盖概率推断算法 + 概率学习) |
| 第 11 周 2026‑05‑12 |
概率时序模型 3 | 连续状态的时序模型:潜变量线性动力系统(LDS)与卡尔曼滤波——隐状态的递推估计。预测编码(Predictive Coding)与运动控制中的卡尔曼滤波类比:大脑如何用”预测误差”持续更新对世界的信念? | 第四章结束 |
| 第 12 周 2026‑05‑19 |
近似推断 1 | 当精确推断不可行时,大脑如何近似?蒙特卡洛方法:用有限样本近似期望,误差以 $1/\sqrt{L}$ 下降而与维数无关;神经采样假说——神经元的随机放电是对概率分布的采样表达。祖先采样与拒绝采样。 | 📍 交作业 3(涵盖概率时序模型) |
| 第 13 周 2026‑05‑26 |
近似推断 2 | 马尔可夫链蒙特卡洛(MCMC):Gibbs 采样(轮流对每个变量从全条件分布采样)与 Metropolis-Hastings 算法;马尔可夫链的平稳分布与混合时间。神经随机性与 MCMC 的认知对应。 | |
| 第 14 周 2026‑06‑02 |
近似推断 3 | 确定性近似:变分推断(Variational Inference)将推断转化为优化——最小化近似分布与真实后验之间的 KL 散度,导出证据下界(ELBO);平均场理论。自由能原理(Free Energy Principle)与主动推断(Active Inference):Karl Friston 框架下,大脑最小化自由能作为感知与行动的统一目标。 | 第五章结束 |
| 第 15 周 2026‑06‑09 |
期末项目答疑 1 | 模型构建答疑:各组上台简要介绍建模思路(数据理解、PGM 结构选择、参数学习方案),教师与同学现场提问与建议。提供答疑加分机会。 | 📍 交作业 4(涵盖近似推断) |
| 第 16 周 2026‑06‑16 |
期末项目答疑 2 | 代码与算法答疑:各组汇报实现进展与遇到的技术问题;讨论推断算法选择、模型验证与结果解读。提供答疑加分机会。 | 期末项目冲刺 |
| 第 17 周 2026‑06‑23 |
期末项目汇报 | 期末项目分组 PK 汇报:每组 15 分钟展示 + 5 分钟 Q&A。重点展示如何利用概率模型,对游戏中复杂行为进行预测、解释和理解。 | 📍 提交汇报 PPT、完整代码包与报告 |
期末项目说明
期末项目主题:智能的概率计算基础
- 形式:分组研究(3–4 人 / 组)
- 要求:文献研读、模型与算法复现、概率图结构说明、项目展示
答疑安排:期末项目设两次次专题答疑课(第 15、16 周),每次课各组均需上台简要介绍当前进展与建模思路,接受教师和同学的现场提问与建议。积极参与答疑、展示清晰思路者可获得额外加分。
加分机制:
- 答疑课上主动上台展示并回答提问:每次最高 +3 分。
- 展示思路的完整性、对模型选择的自洽解释、对同学问题的有效回应均纳入评定。
