diff --git a/docs/机器学习进阶/CMU10-708.md b/docs/机器学习进阶/CMU10-708.md new file mode 100644 index 00000000..d61a55cd --- /dev/null +++ b/docs/机器学习进阶/CMU10-708.md @@ -0,0 +1,11 @@ +# CMU 10-708: Probabilistic Graphical Models + +## 课程简介 +- 所属大学:CMU +- 先修要求:Machine Learning, Deep Learning, Reinforcement Learning +- 课程难度:🌟🌟🌟🌟🌟 +- 课程网站:https://sailinglab.github.io/pgm-spring-2019/ + - 这个网站包含了所有的资源:slides, nots, video, homework, project + +这门课程是 CMU 的图模型基础 + 进阶课,授课老师为 Eric P. Xing,涵盖了图模型基础,与神经网络的结合,在强化学习中的应用,以及非参数方法。相当硬核 + diff --git a/docs/机器学习进阶/CS229M.md b/docs/机器学习进阶/CS229M.md new file mode 100644 index 00000000..092f7488 --- /dev/null +++ b/docs/机器学习进阶/CS229M.md @@ -0,0 +1,9 @@ +# STATS214 / CS229M: Machine Learning Theory + +## 课程简介 +- 所属大学:Stanford +- 先修要求:Machine Learning, Deep Learning, Statistics +- 课程难度:🌟🌟🌟🌟🌟🌟 +- 课程网站:http://web.stanford.edu/class/stats214/ + +经典学习理论 + 最新深度学习理论,非常硬核。授课老师之前是 Percy Liang,现在是 Tengyu Ma \ No newline at end of file diff --git a/docs/机器学习进阶/STA4273.md b/docs/机器学习进阶/STA4273.md new file mode 100644 index 00000000..5624aeda --- /dev/null +++ b/docs/机器学习进阶/STA4273.md @@ -0,0 +1,9 @@ +# STA 4273 Winter 2021: Minimizing Expectations + +## 课程简介 +- 所属大学:U Toronto +- 先修要求:Bayesian Inference, Reinforcement Learning +- 课程难度:🌟🌟🌟🌟🌟🌟🌟 +- 课程网站:https://www.cs.toronto.edu/~cmaddis/courses/sta4273_w21/ + +这是一门较为进阶的 Ph.D. 研究课程,核心内容是 inference 和 control 之间的关系。授课老师为 Chris Maddison (AlphaGo founding member, NeurIPS 14 best paper) \ No newline at end of file diff --git a/docs/机器学习进阶/STAT8201.md b/docs/机器学习进阶/STAT8201.md new file mode 100644 index 00000000..5c57a047 --- /dev/null +++ b/docs/机器学习进阶/STAT8201.md @@ -0,0 +1,10 @@ +# Columbia STAT 8201: Deep Generative Models + +## 课程简介 +- 所属大学:Columbia University +- 先修要求:Machine Learning, Deep Learning, Graphical Models +- 课程难度:🌟🌟🌟🌟🌟🌟 +- 课程网站:http://stat.columbia.edu/~cunningham/teaching/GR8201/ + +这门课是一门 PhD 讨论班,每周的内容是展示 + 讨论论文,授课老师是 John Cunningham。Deep Generative Models (深度生成模型) 是图模型与神经网络的结合,也是现代机器学习最重要的方向之一 + diff --git a/docs/机器学习进阶/roadmap.md b/docs/机器学习进阶/roadmap.md new file mode 100644 index 00000000..f26d07c8 --- /dev/null +++ b/docs/机器学习进阶/roadmap.md @@ -0,0 +1,59 @@ +# 机器学习进阶 + +此路线图适用于已经学过了基础机器学习 (ML, NLP, CV, RL) 的同学 (高年级本科生或低年级研究生),已经发表过至少一篇顶会论文 (NeurIPS, ICML, ICLR, ACL, EMNLP, NAACL, CVPR, ICCV) 想要走机器学习科研路线的选手。 + +此路线的目标是为读懂与发表机器学习顶会论文打下理论基础,特别是 Probabilistic Methods 这个 track 下的文章 + +机器学习进阶可能存在多种不同的学习路线,此路线只能代表作者 [Yao Fu](https://franxyao.github.io/) 所理解的最佳路径,侧重于贝叶斯学派下的概率建模方法,也会涉及到各项相关学科的交叉知识。 + +## 必读教材 +- PRML: Pattern Recognition and Machine Learning. Christopher Bishop + - 经典贝叶斯学派教材 +- AoS: All of Statistics. Larry Wasserman + - 经典频率学派教材 + +所以这两本书刚好相辅相成 + +## 字典 +- MLAPP: Machine Learning: A Probabilistic Perspective. Kevin Murphy +- Convex Optimization. Stephen Boyd and Lieven Vandenberghe + +## 进阶书籍 +- W&J: Graphical Models, Exponential Families, and Variational Inference. Martin Wainwright and Michael Jordan +- Theory of Point Estimation. E. L. Lehmann and George Casella + +## 如何阅读 + +### Guidelines +- 必读教材就是一定要读的教材 +- 字典的意思是,一般情况下不管它,但当遇到了不懂的概念的时候,就去字典里面查(而不是维基百科) +- 进阶书籍先不读,先读完必读书籍。必读书籍一般都是要前前后后反复看过 N 遍才算读完 +- 读的过程中,最重要的读法就是对比阅读 (contrastive-comparative reading):同时打开两本书讲同一主题的章节,然后对比相同点和不同点和联系 +- 读的过程中,尽量去回想之前读过的论文,比较论文和教材的相同点与不同点 + +### 基础路径 +- 先读 AoS 第六章: Models, Statistical Inference and Learning,这一部分是最基础的科普 +- 然后读 PRML 第 10, 11 章 + - 第 10 章的内容是 Variational Inference, 第 11 章的内容是 MCMC, 这两种方法是贝叶斯推断的两条最主要路线 + - 如果在读 PRML 的过程中发现有任何不懂的名词,就去翻前面的章节。很大概率能够在第 3,4 章找到相对应的定义;如果找不到或者不够详细,就去查 MLAPP + - AoS 第 8 章 (Parametric Inference) 和第 11 章 (Bayesian Inference) 也可以作为参考。最好的方法是多本书对比阅读,流程如下 + - 假设我在读 PRML 第 10 章的时候发现了一个不懂的词:posterior inference + - 于是我往前翻,翻到了第 3 章 (Linear Model for Regression),看到了最简单的 posterior + - 然后我接着翻 AoS,翻到了第 11 章,也有对 posterior 的描述 + - 然后我对比 PRML 第 10 章,第 3 章,AoS 第 11 章,三处不同地方对 posterior 的解读,比较其相同点和不同点和联系 +- 读完 PRML 第 10 和 11 章之后,接着读 AoS 第 24 章 (Simulation Methods),然后把它和 PRML 第 11 章对比阅读 -- 这俩都是讲 MCMC +- 如果到此处发现还有基础概念读不懂,就回到 PRML 第 3 章,把它和 AoS 第 11 章对比阅读 +- Again,对比阅读非常重要,一定要把不同本书的类似内容同时摆在面前相互对比,这样可以显著增强记忆 +- 然后读 PRML 第 13 章(跳过第 12 章),这一章可以和 MLAPP 的第 17, 18 章对比阅读 + - MLAPP 第 17 章是 PRML 第 13.2 章的详细版,主要讲 HMM + - MLAPP 第 18 章是 PRML 第 13.3 章的详细版,主要讲 LDS +- 读完 PRML 第 13 章之后,再去读 PRML 第 8 章 (Graphical Models) -- 此时这部分应该会读得很轻松 +- 以上的内容可以进一步对照 CMU 10-708 PGM 课程材料 + +到目前为止,应该能够掌握 +- 概率模型的基础定义 +- 精准推断 - Sum-Product +- 近似推断 - MCMC +- 近似推断 - VI + +然后就可以去做更进阶的内容 diff --git a/mkdocs.yml b/mkdocs.yml index 25ef2602..48540659 100644 --- a/mkdocs.yml +++ b/mkdocs.yml @@ -88,4 +88,10 @@ nav: - 'Stanford CS224n: Natural Language Processing': '深度学习/CS224n.md' - 'Stanford CS224w: Machine Learning with Graphs': '深度学习/CS224w.md' - 'UCB CS285: Deep Reinforcement Learning': '深度学习/CS285.md' + - 机器学习进阶: + - '进阶路线图': '机器学习进阶/roadmap.md' + - 'CMU 10-708: Probabilistic Graphical Models': '机器学习进阶/CMU10-708.md' + - 'Columbia STAT 8201: Deep Generative Models': '机器学习进阶/STAT8201.md' + - 'U Toronto STA 4273 Winter 2021: Minimizing Expectations': '机器学习进阶/STA4273.md' + - 'Stanford STATS214 / CS229M: Machine Learning Theory': '机器学习进阶/CS229M.md' - 后记: '后记.md'