李宏毅+方向修改

This commit is contained in:
yinkanglong_lab
2020-10-14 16:04:58 +08:00
parent 8cd78fcbbc
commit 3be41f284f
8 changed files with 96 additions and 89 deletions

View File

@@ -22,4 +22,10 @@
1. 使用有序列表来记录知识点内容
2. 有序列表
1. 次级列表
2. 次级列表
2. 次级列表
## 2 补充说明
* 最好不要有不能进行版本控制的资料例如ppt和视频。吴恩达的ppt过于经典暂时保留其他的资料进行硬盘存档吧毕竟这是学习笔记不是学习资料。
* 每一门笔记可以有1-2本对应的经典的书籍。比如latex的经典教程、线性代数、概率论和数理统计的经典教程。ppt和视频这种知识密度过低的东西最好不要有。

BIN
aa.jpg

Binary file not shown.

Before

Width:  |  Height:  |  Size: 701 KiB

View File

@@ -22,33 +22,43 @@
python3-numpy-scipy-matplotlib-pandas√
> 基本完成。主要是知道了这些东西都是干什么用的。
### 机器学习系列(视频教程)(三周)
### 机器学习+深度学习系列(视频教程)(三周)
> 需要了解机器学习的各种工具需要的进行补充。使用python3进行编程实践。这一部分是最关键的需要按照知乎的方法进行调整学习。入门课程->模型算法->编程实践
1. 《机器学习》吴恩达的课程一看。跟着做做笔记。
* 完成第一轮,笔记对照(看一部分,总结一部分。)
* 看吴恩达的PPT重新整理所有的笔记。
* 寻找吴恩达课程的课后题使用python完成课后题
2. ~~《机器学习基石》上&下~~//李宏毅的机器学习也行
* 完成第二轮,笔记对照(跟上实践)
* 第一轮,笔记对照(看一部分,总结一部分。)
* 第二轮,看吴恩达的PPT重新整理所有的笔记。
* 第三轮,寻找吴恩达课程的课后题使用python完成课后题
2. 吴恩达的神经网络五套课程看完。各种神经网络。
* 神经网络与深度学习
* 改善神经网络
* 结构化项目学习
* 卷积神经网络
* 序列模型
* 第一轮,笔记对(借用其他人的笔记进行修改,同时理解)
* 第二轮看吴恩达的PPT重新整理所有的笔记
* 第三轮课后题TensorFlow完成
3. 《统计学习方法》一看。3Blue1Brown的视频看一看。跟着做做笔记。
4. 《机器学习西瓜书》一看。跟着做做笔记。
5. 《机器学习实战》量子位提供的书,适合编程。
6. 《python机器学习》里边涉及几个实战
7. tensorflow教程一看实现一遍之前的算法。
8. (可选) ~~《机器学习基石》上&下~~//李宏毅的机器学习也行(在进行一段时间之后,已经完成了多个项目之后,可以回过头来看李的视频,进行更深层次的理解)
* 完成第二轮,笔记对照
* 代码实现课后的内容
> 安排
> 1. 首先跟着量子位的课程完成上述学习。
> 2. 然后跟着apacheCN的资料完成第二阶段的阅读。
> 3. 然后就是尝试专业领域的应用实战。
> 补充:林轩田《机器学习基石》《机器学习技法》。李宏毅的《机器学习视频教程》。
工具
> * sklearn
> * tensorflow
> 工具
> * sklearn
> * tensorflow
> 变更说明
> * 经过仔细思考,感觉李宏毅的机器学习+深度学习与吴恩达的机器学习+深度学习,重叠的部分太多,入门阶段进行混合学习代价较大。所以,入门阶段都是以吴恩达的课程为主,编程也是以吴恩达的课程为主。总共包括五个模块,可以适当地学习三到四个模块,然后进行下一阶段。
### 深度学习系列(一周)
吴恩达的神经网络五套课程看完。
各种神经网络。
### 联邦学习系列(三周)
> 尝试搭建小型的联邦学习框架。寻找网络教程,完成这一块,还有很多书。

View File

@@ -0,0 +1 @@
> 这里主要以各种算法的理论知识为主进行说明。

Binary file not shown.

After

Width:  |  Height:  |  Size: 142 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 104 KiB

View File

@@ -1,123 +1,94 @@
# Introduction
> define a set of function(model) -> goodness of function -> pick the best function
### Learning Map
## 如何定义一个机器学习的问题
> 机器学习的本质是机器自动寻找输入和输出之间的函数function建立输入和输出的关系。
* 根据机器学习的输入input数据集data set定义学习的场景
* 有标签的数据集监督学习supervisor learning
* 没有标签的数据集无监督学习unsupervisor learning、生成对抗网络GAN
* 标签不全的数据集半监督学习semi-supervisor learning
* 特征不一致的数据集迁移学习transfer learning
* 没有数据强化学习reinforcement learning
* 根据机器学习的输出output来定义一个问题或任务task
* 连续的数值回归问题regression
* 离散的数值分类问题classification
* 结构化数值生成问题generation例如一张斑马的图片、一段翻译的结果、一篇文章的总结生成结构化的数据结构化学习
* 选择合适的机器学习算法集合,评估机器学习算法的好坏
* 定义损失函数loss function
* 使用梯度下降优化算法减小损失函数gradient descent
下图中,同样的颜色指的是同一个类型的事情
## 课程的概要
蓝色方块指的是scenario即学习的情境。通常学习的情境是我们没有办法控制的比如做reinforcement Learning是因为我们没有data、没有办法来做supervised Learning的情况下才去做的。如果有datasupervised Learning当然比reinforcement Learning要好因此手上有什么样的data就决定你使用什么样的scenario
![](../img/学习路线.png)
红色方块指的是task即要解决的问题。你要解的问题随着你要找的function的output的不同有输出scalar的regression、有输出options的classification、有输出structured object的structured Learning...
绿色的方块指的是model即用来解决问题的模型(function set)。在这些task里面有不同的model也就是说同样的task我们可以用不同的方法来解它比如linear model、Non-linear model(deep Learning、SVM、decision tree、K-NN...)
* scenario即学习的情境。通常学习的情境是我们没有办法控制的比如做reinforcement Learning是因为我们没有data、没有办法来做supervised Learning的情况下才去做的。如果有datasupervised Learning当然比reinforcement Learning要好因此手上有什么样的data就决定你使用什么样的scenario
* task即要解决的问题。你要解的问题随着你要找的function的output的不同有输出scalar的regression、有输出options的classification、有输出structured object的structured Learning..
* model即用来解决问题的模型(function set)。在这些task里面有不同的model也就是说同样的task我们可以用不同的方法来解它比如linear model、Non-linear model(deep Learning、SVM、decision tree、K-NN...)
<center><img src="https://gitee.com/Sakura-gh/ML-notes/raw/master/img/learningMap.png" alt="learning map" width="60%;" /></center>
> 在定义应用场景的时候,可能有来自不同领域的数据,例如语音处理的语音、文字处理的文本、图像识别的图像。对于不同领域的数据,其机器学习算法的场景是完全一致的,唯一不同的是,对数据的预处理。而解决一个机器学习问题,需要花费更多的时间在数据预处理的过程。
#### Supervised Learning(监督学习)
supervised learning 需要大量的training data这些training data告诉我们说一个我们要找的function它的input和output之间有什么样的关系
## 基础知识
而这种function的output通常被叫做label(标签)也就是说我们要使用supervised learning这样一种技术我们需要告诉机器function的input和output分别是什么而这种output通常是通过人工的方式标注出来的因此称为人工标注的label它的缺点是需要大量的人工effort
### Supervised Learning(监督学习)
##### Regression(回归)
#### 场景的描述
supervised learning 需要大量的training data这些training data告诉我们说一个我们要找的function它的input和output之间有什么样的关系而这种function的output通常被叫做label(标签)。
regression是machine learning的一个task特点是==通过regression找到的function它的输出是一个scalar数值==
#### 任务的分类
* Regression(回归)regression是machine learning的一个task通过regression找到的function它的输出是一个scalar数值比如PM2.5的预测给machine的training data是过去的PM2.5资料而输出的是对未来PM2.5的预测**数值**这就是一个典型的regression的问题
比如PM2.5的预测给machine的training data是过去的PM2.5资料而输出的是对未来PM2.5的预测**数值**这就是一个典型的regression的问题
* Classification(分类)regression和classification的区别是我们要机器输出的东西的类型是不一样的在regression里机器输出的是scalar而classification又分为两类
* Binary Classification(二元分类)在binary classification里我们要机器输出的是yes or no是或否。比如G-mail的spam filtering(垃圾邮件过滤器),输入是邮件,输出是该邮件是否是垃圾邮件
* Multi-class classification(多元分类)在multi-class classification里机器要做的是选择题等于给他数个选项每一个选项就是一个类别它要从数个类别里面选择正确的类别。比如document classification(新闻文章分类),输入是一则新闻,输出是这个新闻属于哪一个类别(选项)
##### Classification(分类)
regression和classification的区别是我们要机器输出的东西的类型是不一样的在regression里机器输出的是scalar而classification又分为两类
###### Binary Classification(二元分类)
在binary classification里我们要机器输出的是yes or no是或否
比如G-mail的spam filtering(垃圾邮件过滤器),输入是邮件,输出是该邮件是否是垃圾邮件
###### Multi-class classification(多元分类)
在multi-class classification里机器要做的是选择题等于给他数个选项每一个选项就是一个类别它要从数个类别里面选择正确的类别
比如document classification(新闻文章分类),输入是一则新闻,输出是这个新闻属于哪一个类别(选项)
##### model(function set) 选择模型
#### 模型的选择
在解任务的过程中第一步是要选一个function的set选不同的function set会得到不同的结果而选不同的function set就是选不同的modelmodel又分为很多种
* Linear Model(线性模型):最简单的模型
* Non-linear Model(非线性模型):最常用的模型,包括:
* **deep learning**
如alpha-go下围棋输入是当前的棋盘格局输出是下一步要落子的位置由于棋盘是19\*19的因此可以把它看成是一个有19\*19个选项的选择题
* **SVM**
* **decision tree**
* **K-NN**
#### Semi-supervised Learning(半监督学习)
### Semi-supervised Learning(半监督学习)
举例如果想要做一个区分猫和狗的function
#### 场景的描述
如果想要做一个区分猫和狗的任务。手头上有少量的labeled data它们标注了图片上哪只是猫哪只是狗同时又有大量的unlabeled data它们仅仅只有猫和狗的图片但没有标注去告诉机器哪只是猫哪只是狗。
手头上有少量的labeled data它们标注了图片上哪只是猫哪只是狗同时又有大量的unlabeled data它们仅仅只有猫和狗的图片,但没有标注去告诉机器哪只是猫哪只是狗
在Semi-supervised Learning的技术里面这些没有labeleddata对机器学习也是有帮助的。
在Semi-supervised Learning的技术里面这些没有labeled的data对机器学习也是有帮助的
<center><img src="https://gitee.com/Sakura-gh/ML-notes/raw/master/img/semi-supervised-Learning.png" alt="semi-supervised" width="60%;" /></center>
#### Transfer Learning(迁移学习)
### Transfer Learning(迁移学习)
### 场景的描述
假设一样我们要做猫和狗的分类问题
我们也一样只有少量的有labeled的data但是我们现在有大量的不相干的data(不是猫和狗的图片,而是一些其他不相干的图片)在这些大量的data里面它可能有label也可能没有label
Transfer Learning要解决的问题是这一堆不相干的data可以对结果带来什么样的帮助
<center><img src="https://gitee.com/Sakura-gh/ML-notes/raw/master/img/transfer-Learning.png" alt="transfer" width="60%;" /></center>
#### Unsupervised Learning(无监督学习)
### Unsupervised Learning(无监督学习)
区别于supervised learningunsupervised learning希望机器学到无师自通在完全没有任何label的情况下机器到底能学到什么样的知识
举例来说,如果我们给机器看大量的文章,机器看过大量的文章之后,它到底能够学到什么事情?它能不能学会每个词汇的意思?
学会每个词汇的意思可以理解为我们要找一个function然后把一个词汇丢进去机器要输出告诉你说这个词汇是什么意思也许他用一个向量来表示这个词汇的不同的特性不同的attribute
### Structured Learning(结构化学习)
又比如我们带机器去逛动物园给他看大量的动物的图片对于unsupervised learning来说,我们的data中只有给function的输入的大量图片没有任何的输出标注在这种情况下机器该怎么学会根据testing data的输入来自己生成新的图片
在structured Learning,我们要机器输出的是,一个有结构性的东西。
<center><img src="https://gitee.com/Sakura-gh/ML-notes/raw/master/img/unsupervised-Learning.png" width="60%;" /></center>
在分类的问题中机器输出的只是一个选项在structured类的problem里面机器要输出的是一个复杂的物件。
#### Structured Learning(结构化学习)
举例来说在语音识别的情境下机器的输入是一个声音信号输出是一个句子句子是由许多词汇拼凑而成它是一个有结构性的object。比如**GAN**也是structured Learning的一种方法
在structured Learning里我们要机器输出的是一个有结构性的东西
在分类的问题中机器输出的只是一个选项在structured类的problem里面机器要输出的是一个复杂的物件
### Reinforcement Learning(强化学习)
举例来说在语音识别的情境下机器的输入是一个声音信号输出是一个句子句子是由许多词汇拼凑而成它是一个有结构性的object
* **Supervised Learning**:我们会告诉机器正确的答案是什么 ,其特点是**Learning from teacher**
或者说机器翻译、人脸识别(标出不同的人的名称)
* **Reinforcement Learning**:我们没有告诉机器正确的答案是什么,机器最终得到的只有一个分数,就是它做的好还是不好,但他不知道自己到底哪里做的不好,他也没有正确的答案;很像真实社会中的学习,你没有一个正确的答案,你只知道自己是做得好还是不好。其特点是**Learning from critics**
比如**GAN**也是structured Learning的一种方法
<center><img src="https://gitee.com/Sakura-gh/ML-notes/raw/master/img/structured-Learning.png" alt="structured" width="60%;" /></center>
#### Reinforcement Learning(强化学习)
**Supervised Learning**:我们会告诉机器正确的答案是什么 ,其特点是**Learning from teacher**
* 比如训练一个聊天机器人告诉他如果使用者说了“Hello”你就说“Hi”如果使用者说了“Bye bye”你就说“Good bye”就好像有一个家教在它的旁边手把手地教他每一件事情
**Reinforcement Learning**:我们没有告诉机器正确的答案是什么,机器最终得到的只有一个分数,就是它做的好还是不好,但他不知道自己到底哪里做的不好,他也没有正确的答案;很像真实社会中的学习,你没有一个正确的答案,你只知道自己是做得好还是不好。其特点是**Learning from critics**
* 比如训练一个聊天机器人,让它跟客人直接对话;如果客人勃然大怒把电话挂掉了,那机器就学到一件事情,刚才做错了,它不知道自己哪里做错了,必须自己回去反省检讨到底要如何改进,比如一开始不应该打招呼吗?还是中间不能骂脏话之类的
<center><img src="https://gitee.com/Sakura-gh/ML-notes/raw/master/img/reinforcement-Learning.png" alt="reinforcement" width="60%;" /></center>
再拿下棋这件事举例supervised Learning是说看到眼前这个棋盘告诉机器下一步要走什么位置而reinforcement Learning是说让机器和对手互弈下了好几手之后赢了机器就知道这一局棋下的不错但是到底哪一步是赢的关键机器是不知道的他只知道自己是赢了还是输了
其实Alpha Go是用supervised Learning+reinforcement Learning的方式去学习的机器先是从棋谱学习有棋谱就可以做supervised的学习之后再做reinforcement Learning机器的对手是另外一台机器Alpha Go就是和自己下棋然后不断的进步
* 再拿下棋这件事举例supervised Learning是说看到眼前这个棋盘告诉机器下一步要走什么位置而reinforcement Learning是说让机器和对手互弈下了好几手之后赢了机器就知道这一局棋下的不错但是到底哪一步是赢的关键机器是不知道的他只知道自己是赢了还是输了。

View File

@@ -1,6 +1,25 @@
# RegressionCase Study
> **回归**-案例研究
## 回归问题
* 预测
* 给出特征,预测特征的结果
* 推荐
* 一般包括两组对象。描述两组对象之间的关联性。
* 例如读者+文章的推荐系统。读者的特征敏感度$\theta$+文章特征$x_i$。基于个人浏览记录和文章特征的内容推荐系统,给定后者,训练读者的特征敏感度,然后推荐;基于文章被浏览的记录和读者特征的内容推荐系统,给定前者,训练文章本身的特征,然后推荐;基于协同过滤算法,前者后者都没有,进行推荐。
## 机器学习的约定
* 使用上标代表数据集中单条数据的定位。
* 使用下表代表单条数据中组成元素的定位。
* 假设函数,即训练模型。
* 损失函数,是关于参数的函数。
## 如何实现一个机器学习算法
1. 定义模型,给出假设函数,关于输入输出的函数。
2. 定义损失,给出代价函数,关于参数的函数,输入输出用数据集代替。
3. 梯度下降,最小化代价函数。
#### 问题的导入预测宝可梦的CP值