mirror of
https://github.com/PKUFlyingPig/cs-self-learning.git
synced 2026-02-02 18:21:39 +08:00
Merge pull request #45 from FranxYao/dev
Adding advanced machine learning
This commit is contained in:
11
docs/机器学习进阶/CMU10-708.md
Normal file
11
docs/机器学习进阶/CMU10-708.md
Normal file
@@ -0,0 +1,11 @@
|
||||
# CMU 10-708: Probabilistic Graphical Models
|
||||
|
||||
## 课程简介
|
||||
- 所属大学:CMU
|
||||
- 先修要求:Machine Learning, Deep Learning, Reinforcement Learning
|
||||
- 课程难度:🌟🌟🌟🌟🌟
|
||||
- 课程网站:https://sailinglab.github.io/pgm-spring-2019/
|
||||
- 这个网站包含了所有的资源:slides, nots, video, homework, project
|
||||
|
||||
这门课程是 CMU 的图模型基础 + 进阶课,授课老师为 Eric P. Xing,涵盖了图模型基础,与神经网络的结合,在强化学习中的应用,以及非参数方法。相当硬核
|
||||
|
||||
9
docs/机器学习进阶/CS229M.md
Normal file
9
docs/机器学习进阶/CS229M.md
Normal file
@@ -0,0 +1,9 @@
|
||||
# STATS214 / CS229M: Machine Learning Theory
|
||||
|
||||
## 课程简介
|
||||
- 所属大学:Stanford
|
||||
- 先修要求:Machine Learning, Deep Learning, Statistics
|
||||
- 课程难度:🌟🌟🌟🌟🌟🌟
|
||||
- 课程网站:http://web.stanford.edu/class/stats214/
|
||||
|
||||
经典学习理论 + 最新深度学习理论,非常硬核。授课老师之前是 Percy Liang,现在是 Tengyu Ma
|
||||
9
docs/机器学习进阶/STA4273.md
Normal file
9
docs/机器学习进阶/STA4273.md
Normal file
@@ -0,0 +1,9 @@
|
||||
# STA 4273 Winter 2021: Minimizing Expectations
|
||||
|
||||
## 课程简介
|
||||
- 所属大学:U Toronto
|
||||
- 先修要求:Bayesian Inference, Reinforcement Learning
|
||||
- 课程难度:🌟🌟🌟🌟🌟🌟🌟
|
||||
- 课程网站:https://www.cs.toronto.edu/~cmaddis/courses/sta4273_w21/
|
||||
|
||||
这是一门较为进阶的 Ph.D. 研究课程,核心内容是 inference 和 control 之间的关系。授课老师为 Chris Maddison (AlphaGo founding member, NeurIPS 14 best paper)
|
||||
10
docs/机器学习进阶/STAT8201.md
Normal file
10
docs/机器学习进阶/STAT8201.md
Normal file
@@ -0,0 +1,10 @@
|
||||
# Columbia STAT 8201: Deep Generative Models
|
||||
|
||||
## 课程简介
|
||||
- 所属大学:Columbia University
|
||||
- 先修要求:Machine Learning, Deep Learning, Graphical Models
|
||||
- 课程难度:🌟🌟🌟🌟🌟🌟
|
||||
- 课程网站:http://stat.columbia.edu/~cunningham/teaching/GR8201/
|
||||
|
||||
这门课是一门 PhD 讨论班,每周的内容是展示 + 讨论论文,授课老师是 John Cunningham。Deep Generative Models (深度生成模型) 是图模型与神经网络的结合,也是现代机器学习最重要的方向之一
|
||||
|
||||
59
docs/机器学习进阶/roadmap.md
Normal file
59
docs/机器学习进阶/roadmap.md
Normal file
@@ -0,0 +1,59 @@
|
||||
# 机器学习进阶
|
||||
|
||||
此路线图适用于已经学过了基础机器学习 (ML, NLP, CV, RL) 的同学 (高年级本科生或低年级研究生),已经发表过至少一篇顶会论文 (NeurIPS, ICML, ICLR, ACL, EMNLP, NAACL, CVPR, ICCV) 想要走机器学习科研路线的选手。
|
||||
|
||||
此路线的目标是为读懂与发表机器学习顶会论文打下理论基础,特别是 Probabilistic Methods 这个 track 下的文章
|
||||
|
||||
机器学习进阶可能存在多种不同的学习路线,此路线只能代表作者 [Yao Fu](https://franxyao.github.io/) 所理解的最佳路径,侧重于贝叶斯学派下的概率建模方法,也会涉及到各项相关学科的交叉知识。
|
||||
|
||||
## 必读教材
|
||||
- PRML: Pattern Recognition and Machine Learning. Christopher Bishop
|
||||
- 经典贝叶斯学派教材
|
||||
- AoS: All of Statistics. Larry Wasserman
|
||||
- 经典频率学派教材
|
||||
|
||||
所以这两本书刚好相辅相成
|
||||
|
||||
## 字典
|
||||
- MLAPP: Machine Learning: A Probabilistic Perspective. Kevin Murphy
|
||||
- Convex Optimization. Stephen Boyd and Lieven Vandenberghe
|
||||
|
||||
## 进阶书籍
|
||||
- W&J: Graphical Models, Exponential Families, and Variational Inference. Martin Wainwright and Michael Jordan
|
||||
- Theory of Point Estimation. E. L. Lehmann and George Casella
|
||||
|
||||
## 如何阅读
|
||||
|
||||
### Guidelines
|
||||
- 必读教材就是一定要读的教材
|
||||
- 字典的意思是,一般情况下不管它,但当遇到了不懂的概念的时候,就去字典里面查(而不是维基百科)
|
||||
- 进阶书籍先不读,先读完必读书籍。必读书籍一般都是要前前后后反复看过 N 遍才算读完
|
||||
- 读的过程中,最重要的读法就是对比阅读 (contrastive-comparative reading):同时打开两本书讲同一主题的章节,然后对比相同点和不同点和联系
|
||||
- 读的过程中,尽量去回想之前读过的论文,比较论文和教材的相同点与不同点
|
||||
|
||||
### 基础路径
|
||||
- 先读 AoS 第六章: Models, Statistical Inference and Learning,这一部分是最基础的科普
|
||||
- 然后读 PRML 第 10, 11 章
|
||||
- 第 10 章的内容是 Variational Inference, 第 11 章的内容是 MCMC, 这两种方法是贝叶斯推断的两条最主要路线
|
||||
- 如果在读 PRML 的过程中发现有任何不懂的名词,就去翻前面的章节。很大概率能够在第 3,4 章找到相对应的定义;如果找不到或者不够详细,就去查 MLAPP
|
||||
- AoS 第 8 章 (Parametric Inference) 和第 11 章 (Bayesian Inference) 也可以作为参考。最好的方法是多本书对比阅读,流程如下
|
||||
- 假设我在读 PRML 第 10 章的时候发现了一个不懂的词:posterior inference
|
||||
- 于是我往前翻,翻到了第 3 章 (Linear Model for Regression),看到了最简单的 posterior
|
||||
- 然后我接着翻 AoS,翻到了第 11 章,也有对 posterior 的描述
|
||||
- 然后我对比 PRML 第 10 章,第 3 章,AoS 第 11 章,三处不同地方对 posterior 的解读,比较其相同点和不同点和联系
|
||||
- 读完 PRML 第 10 和 11 章之后,接着读 AoS 第 24 章 (Simulation Methods),然后把它和 PRML 第 11 章对比阅读 -- 这俩都是讲 MCMC
|
||||
- 如果到此处发现还有基础概念读不懂,就回到 PRML 第 3 章,把它和 AoS 第 11 章对比阅读
|
||||
- Again,对比阅读非常重要,一定要把不同本书的类似内容同时摆在面前相互对比,这样可以显著增强记忆
|
||||
- 然后读 PRML 第 13 章(跳过第 12 章),这一章可以和 MLAPP 的第 17, 18 章对比阅读
|
||||
- MLAPP 第 17 章是 PRML 第 13.2 章的详细版,主要讲 HMM
|
||||
- MLAPP 第 18 章是 PRML 第 13.3 章的详细版,主要讲 LDS
|
||||
- 读完 PRML 第 13 章之后,再去读 PRML 第 8 章 (Graphical Models) -- 此时这部分应该会读得很轻松
|
||||
- 以上的内容可以进一步对照 CMU 10-708 PGM 课程材料
|
||||
|
||||
到目前为止,应该能够掌握
|
||||
- 概率模型的基础定义
|
||||
- 精准推断 - Sum-Product
|
||||
- 近似推断 - MCMC
|
||||
- 近似推断 - VI
|
||||
|
||||
然后就可以去做更进阶的内容
|
||||
@@ -88,4 +88,10 @@ nav:
|
||||
- 'Stanford CS224n: Natural Language Processing': '深度学习/CS224n.md'
|
||||
- 'Stanford CS224w: Machine Learning with Graphs': '深度学习/CS224w.md'
|
||||
- 'UCB CS285: Deep Reinforcement Learning': '深度学习/CS285.md'
|
||||
- 机器学习进阶:
|
||||
- '进阶路线图': '机器学习进阶/roadmap.md'
|
||||
- 'CMU 10-708: Probabilistic Graphical Models': '机器学习进阶/CMU10-708.md'
|
||||
- 'Columbia STAT 8201: Deep Generative Models': '机器学习进阶/STAT8201.md'
|
||||
- 'U Toronto STA 4273 Winter 2021: Minimizing Expectations': '机器学习进阶/STA4273.md'
|
||||
- 'Stanford STATS214 / CS229M: Machine Learning Theory': '机器学习进阶/CS229M.md'
|
||||
- 后记: '后记.md'
|
||||
|
||||
Reference in New Issue
Block a user