diff --git a/README.md b/README.md index e83a70fb..78225609 100644 --- a/README.md +++ b/README.md @@ -22,4 +22,10 @@ 1. 使用有序列表来记录知识点内容 2. 有序列表 1. 次级列表 - 2. 次级列表 \ No newline at end of file + 2. 次级列表 + + +## 2 补充说明 + +* 最好不要有不能进行版本控制的资料,例如ppt和视频。吴恩达的ppt过于经典,暂时保留,其他的资料,进行硬盘存档吧,毕竟这是学习笔记,不是学习资料。 +* 每一门笔记可以有1-2本对应的经典的书籍。比如latex的经典教程、线性代数、概率论和数理统计的经典教程。ppt和视频这种知识密度过低的东西,最好不要有。 \ No newline at end of file diff --git a/aa.jpg b/aa.jpg deleted file mode 100644 index 576b31a5..00000000 Binary files a/aa.jpg and /dev/null differ diff --git a/工作日志/2020年9月6日-ML.md b/工作日志/2020年9月6日-ML.md index b1866293..6031cc37 100644 --- a/工作日志/2020年9月6日-ML.md +++ b/工作日志/2020年9月6日-ML.md @@ -22,33 +22,43 @@ python3-numpy-scipy-matplotlib-pandas√ > 基本完成。主要是知道了这些东西都是干什么用的。 -### 机器学习系列(视频教程)(三周) +### 机器学习+深度学习系列(视频教程)(三周) > 需要了解机器学习的各种工具,需要的进行补充。使用python3进行编程实践。这一部分是最关键的,需要按照知乎的方法进行调整学习。入门课程->模型算法->编程实践 1. 《机器学习》吴恩达的课程一看。跟着做做笔记。 - * 完成第一轮,笔记对照(看一部分,总结一部分。) - * 看吴恩达的PPT重新整理所有的笔记。 - * 寻找吴恩达课程的课后题,使用python完成课后题 -2. ~~《机器学习基石》上&下~~//李宏毅的机器学习也行 - * 完成第二轮,笔记对照(跟上实践) + * 第一轮,笔记对照(看一部分,总结一部分。) + * 第二轮,看吴恩达的PPT重新整理所有的笔记。 + * 第三轮,寻找吴恩达课程的课后题,使用python完成课后题 +2. 吴恩达的神经网络五套课程看完。各种神经网络。 + * 神经网络与深度学习 + * 改善神经网络 + * 结构化项目学习 + * 卷积神经网络 + * 序列模型 + * 第一轮,笔记对(借用其他人的笔记进行修改,同时理解) + * 第二轮,看吴恩达的PPT重新整理所有的笔记 + * 第三轮,课后题,TensorFlow完成 3. 《统计学习方法》一看。3Blue1Brown的视频看一看。跟着做做笔记。 4. 《机器学习西瓜书》一看。跟着做做笔记。 5. 《机器学习实战》量子位提供的书,适合编程。 6. 《python机器学习》里边涉及几个实战 7. tensorflow教程一看,实现一遍之前的算法。 +8. (可选) ~~《机器学习基石》上&下~~//李宏毅的机器学习也行(在进行一段时间之后,已经完成了多个项目之后,可以回过头来看李的视频,进行更深层次的理解) + * 完成第二轮,笔记对照 + * 代码实现课后的内容 > 安排 > 1. 首先跟着量子位的课程完成上述学习。 > 2. 然后跟着apacheCN的资料完成第二阶段的阅读。 > 3. 然后就是尝试专业领域的应用实战。 > 补充:林轩田《机器学习基石》《机器学习技法》。李宏毅的《机器学习视频教程》。 -工具 -> * sklearn -> * tensorflow +> 工具 +> * sklearn +> * tensorflow + +> 变更说明 +> * 经过仔细思考,感觉李宏毅的机器学习+深度学习与吴恩达的机器学习+深度学习,重叠的部分太多,入门阶段进行混合学习代价较大。所以,入门阶段都是以吴恩达的课程为主,编程也是以吴恩达的课程为主。总共包括五个模块,可以适当地学习三到四个模块,然后进行下一阶段。 -### 深度学习系列(一周) -吴恩达的神经网络五套课程看完。 -各种神经网络。 ### 联邦学习系列(三周) > 尝试搭建小型的联邦学习框架。寻找网络教程,完成这一块,还有很多书。 diff --git a/机器学习/ApacheCN/readme.md b/机器学习/ApacheCN/readme.md new file mode 100644 index 00000000..a176c1d8 --- /dev/null +++ b/机器学习/ApacheCN/readme.md @@ -0,0 +1 @@ +> 这里主要以各种算法的理论知识为主进行说明。 \ No newline at end of file diff --git a/机器学习/李宏毅机器学习/img/学习路线.png b/机器学习/李宏毅机器学习/img/学习路线.png new file mode 100644 index 00000000..0bb5be77 Binary files /dev/null and b/机器学习/李宏毅机器学习/img/学习路线.png differ diff --git a/机器学习/李宏毅机器学习/img/学习路线old.png b/机器学习/李宏毅机器学习/img/学习路线old.png new file mode 100644 index 00000000..30c40060 Binary files /dev/null and b/机器学习/李宏毅机器学习/img/学习路线old.png differ diff --git a/机器学习/李宏毅机器学习/学习笔记/1_Introduction.md b/机器学习/李宏毅机器学习/学习笔记/1_Introduction.md index bb69d320..18fcfa23 100644 --- a/机器学习/李宏毅机器学习/学习笔记/1_Introduction.md +++ b/机器学习/李宏毅机器学习/学习笔记/1_Introduction.md @@ -1,123 +1,94 @@ # Introduction -> define a set of function(model) -> goodness of function -> pick the best function -### Learning Map +## 如何定义一个机器学习的问题 +> 机器学习的本质,是机器自动寻找输入和输出之间的函数function,建立输入和输出的关系。 +* 根据机器学习的输入input数据集data set,定义学习的场景 + * 有标签的数据集:监督学习supervisor learning + * 没有标签的数据集:无监督学习unsupervisor learning、生成对抗网络GAN + * 标签不全的数据集:半监督学习semi-supervisor learning + * 特征不一致的数据集:迁移学习transfer learning + * 没有数据:强化学习reinforcement learning +* 根据机器学习的输出output,来定义一个问题或任务task + * 连续的数值:回归问题regression + * 离散的数值:分类问题classification + * 结构化数值:生成问题generation(例如一张斑马的图片、一段翻译的结果、一篇文章的总结,生成结构化的数据,结构化学习) +* 选择合适的机器学习算法集合,评估机器学习算法的好坏 + * 定义损失函数loss function + * 使用梯度下降优化算法,减小损失函数gradient descent -下图中,同样的颜色指的是同一个类型的事情 +## 课程的概要 -蓝色方块指的是scenario,即学习的情境。通常学习的情境是我们没有办法控制的,比如做reinforcement Learning是因为我们没有data、没有办法来做supervised Learning的情况下才去做的。如果有data,supervised Learning当然比reinforcement Learning要好;因此手上有什么样的data,就决定你使用什么样的scenario +![](../img/学习路线.png) -红色方块指的是task,即要解决的问题。你要解的问题,随着你要找的function的output的不同,有输出scalar的regression、有输出options的classification、有输出structured object的structured Learning... -绿色的方块指的是model,即用来解决问题的模型(function set)。在这些task里面有不同的model,也就是说,同样的task,我们可以用不同的方法来解它,比如linear model、Non-linear model(deep Learning、SVM、decision tree、K-NN...) +* scenario,即学习的情境。通常学习的情境是我们没有办法控制的,比如做reinforcement Learning是因为我们没有data、没有办法来做supervised Learning的情况下才去做的。如果有data,supervised Learning当然比reinforcement Learning要好;因此手上有什么样的data,就决定你使用什么样的scenario +* task,即要解决的问题。你要解的问题,随着你要找的function的output的不同,有输出scalar的regression、有输出options的classification、有输出structured object的structured Learning.. +* model,即用来解决问题的模型(function set)。在这些task里面有不同的model,也就是说,同样的task,我们可以用不同的方法来解它,比如linear model、Non-linear model(deep Learning、SVM、decision tree、K-NN...) -
learning map
+> 在定义应用场景的时候,可能有来自不同领域的数据,例如语音处理的语音、文字处理的文本、图像识别的图像。对于不同领域的数据,其机器学习算法的场景是完全一致的,唯一不同的是,对数据的预处理。而解决一个机器学习问题,需要花费更多的时间在数据预处理的过程。 -#### Supervised Learning(监督学习) -supervised learning 需要大量的training data,这些training data告诉我们说,一个我们要找的function,它的input和output之间有什么样的关系 +## 基础知识 -而这种function的output,通常被叫做label(标签),也就是说,我们要使用supervised learning这样一种技术,我们需要告诉机器,function的input和output分别是什么,而这种output通常是通过人工的方式标注出来的,因此称为人工标注的label,它的缺点是需要大量的人工effort +### Supervised Learning(监督学习) -##### Regression(回归) +#### 场景的描述 +supervised learning 需要大量的training data,这些training data告诉我们说,一个我们要找的function,它的input和output之间有什么样的关系而这种function的output,通常被叫做label(标签)。 -regression是machine learning的一个task,特点是==通过regression找到的function,它的输出是一个scalar数值== +#### 任务的分类 +* Regression(回归)regression是machine learning的一个task,通过regression找到的function,它的输出是一个scalar数值比如PM2.5的预测,给machine的training data是过去的PM2.5资料,而输出的是对未来PM2.5的预测**数值**,这就是一个典型的regression的问题 -比如PM2.5的预测,给machine的training data是过去的PM2.5资料,而输出的是对未来PM2.5的预测**数值**,这就是一个典型的regression的问题 +* Classification(分类)regression和classification的区别是,我们要机器输出的东西的类型是不一样的,在regression里机器输出的是scalar,而classification又分为两类: + * Binary Classification(二元分类)在binary classification里,我们要机器输出的是yes or no,是或否。比如G-mail的spam filtering(垃圾邮件过滤器),输入是邮件,输出是该邮件是否是垃圾邮件 + * Multi-class classification(多元分类)在multi-class classification里,机器要做的是选择题,等于给他数个选项,每一个选项就是一个类别,它要从数个类别里面选择正确的类别。比如document classification(新闻文章分类),输入是一则新闻,输出是这个新闻属于哪一个类别(选项) -##### Classification(分类) - -regression和classification的区别是,我们要机器输出的东西的类型是不一样的,在regression里机器输出的是scalar,而classification又分为两类: - -###### Binary Classification(二元分类) - -在binary classification里,我们要机器输出的是yes or no,是或否 - -比如G-mail的spam filtering(垃圾邮件过滤器),输入是邮件,输出是该邮件是否是垃圾邮件 - -###### Multi-class classification(多元分类) - -在multi-class classification里,机器要做的是选择题,等于给他数个选项,每一个选项就是一个类别,它要从数个类别里面选择正确的类别 - -比如document classification(新闻文章分类),输入是一则新闻,输出是这个新闻属于哪一个类别(选项) - -##### model(function set) 选择模型 +#### 模型的选择 在解任务的过程中,第一步是要选一个function的set,选不同的function set,会得到不同的结果;而选不同的function set就是选不同的model,model又分为很多种: * Linear Model(线性模型):最简单的模型 - * Non-linear Model(非线性模型):最常用的模型,包括: * **deep learning** - - 如alpha-go下围棋,输入是当前的棋盘格局,输出是下一步要落子的位置;由于棋盘是19\*19的,因此可以把它看成是一个有19\*19个选项的选择题 - * **SVM** - * **decision tree** - * **K-NN** -#### Semi-supervised Learning(半监督学习) +### Semi-supervised Learning(半监督学习) -举例:如果想要做一个区分猫和狗的function +#### 场景的描述 +如果想要做一个区分猫和狗的任务。手头上有少量的labeled data,它们标注了图片上哪只是猫哪只是狗;同时又有大量的unlabeled data,它们仅仅只有猫和狗的图片,但没有标注去告诉机器哪只是猫哪只是狗。 -手头上有少量的labeled data,它们标注了图片上哪只是猫哪只是狗;同时又有大量的unlabeled data,它们仅仅只有猫和狗的图片,但没有标注去告诉机器哪只是猫哪只是狗 +在Semi-supervised Learning的技术里面,这些没有labeled的data,对机器学习也是有帮助的。 -在Semi-supervised Learning的技术里面,这些没有labeled的data,对机器学习也是有帮助的 - -
semi-supervised
- -#### Transfer Learning(迁移学习) +### Transfer Learning(迁移学习) +### 场景的描述 假设一样我们要做猫和狗的分类问题 我们也一样只有少量的有labeled的data;但是我们现在有大量的不相干的data(不是猫和狗的图片,而是一些其他不相干的图片),在这些大量的data里面,它可能有label也可能没有label Transfer Learning要解决的问题是,这一堆不相干的data可以对结果带来什么样的帮助 -
transfer
- -#### Unsupervised Learning(无监督学习) +### Unsupervised Learning(无监督学习) 区别于supervised learning,unsupervised learning希望机器学到无师自通,在完全没有任何label的情况下,机器到底能学到什么样的知识 -举例来说,如果我们给机器看大量的文章,机器看过大量的文章之后,它到底能够学到什么事情?它能不能学会每个词汇的意思? -学会每个词汇的意思可以理解为:我们要找一个function,然后把一个词汇丢进去,机器要输出告诉你说这个词汇是什么意思,也许他用一个向量来表示这个词汇的不同的特性,不同的attribute +### Structured Learning(结构化学习) -又比如,我们带机器去逛动物园,给他看大量的动物的图片,对于unsupervised learning来说,我们的data中只有给function的输入的大量图片,没有任何的输出标注;在这种情况下,机器该怎么学会根据testing data的输入来自己生成新的图片? +在structured Learning里,我们要机器输出的是,一个有结构性的东西。 -
+在分类的问题中,机器输出的只是一个选项;在structured类的problem里面,机器要输出的是一个复杂的物件。 -#### Structured Learning(结构化学习) +举例来说,在语音识别的情境下,机器的输入是一个声音信号,输出是一个句子;句子是由许多词汇拼凑而成,它是一个有结构性的object。比如**GAN**也是structured Learning的一种方法 -在structured Learning里,我们要机器输出的是,一个有结构性的东西 -在分类的问题中,机器输出的只是一个选项;在structured类的problem里面,机器要输出的是一个复杂的物件 +### Reinforcement Learning(强化学习) -举例来说,在语音识别的情境下,机器的输入是一个声音信号,输出是一个句子;句子是由许多词汇拼凑而成,它是一个有结构性的object +* **Supervised Learning**:我们会告诉机器正确的答案是什么 ,其特点是**Learning from teacher** -或者说机器翻译、人脸识别(标出不同的人的名称) +* **Reinforcement Learning**:我们没有告诉机器正确的答案是什么,机器最终得到的只有一个分数,就是它做的好还是不好,但他不知道自己到底哪里做的不好,他也没有正确的答案;很像真实社会中的学习,你没有一个正确的答案,你只知道自己是做得好还是不好。其特点是**Learning from critics** -比如**GAN**也是structured Learning的一种方法 - -
structured
- -#### Reinforcement Learning(强化学习) - -**Supervised Learning**:我们会告诉机器正确的答案是什么 ,其特点是**Learning from teacher** - -* 比如训练一个聊天机器人,告诉他如果使用者说了“Hello”,你就说“Hi”;如果使用者说了“Bye bye”,你就说“Good bye”;就好像有一个家教在它的旁边手把手地教他每一件事情 - -**Reinforcement Learning**:我们没有告诉机器正确的答案是什么,机器最终得到的只有一个分数,就是它做的好还是不好,但他不知道自己到底哪里做的不好,他也没有正确的答案;很像真实社会中的学习,你没有一个正确的答案,你只知道自己是做得好还是不好。其特点是**Learning from critics** - -* 比如训练一个聊天机器人,让它跟客人直接对话;如果客人勃然大怒把电话挂掉了,那机器就学到一件事情,刚才做错了,它不知道自己哪里做错了,必须自己回去反省检讨到底要如何改进,比如一开始不应该打招呼吗?还是中间不能骂脏话之类的 - -
reinforcement
- -再拿下棋这件事举例,supervised Learning是说看到眼前这个棋盘,告诉机器下一步要走什么位置;而reinforcement Learning是说让机器和对手互弈,下了好几手之后赢了,机器就知道这一局棋下的不错,但是到底哪一步是赢的关键,机器是不知道的,他只知道自己是赢了还是输了 - -其实Alpha Go是用supervised Learning+reinforcement Learning的方式去学习的,机器先是从棋谱学习,有棋谱就可以做supervised的学习;之后再做reinforcement Learning,机器的对手是另外一台机器,Alpha Go就是和自己下棋,然后不断的进步 \ No newline at end of file +* 再拿下棋这件事举例,supervised Learning是说看到眼前这个棋盘,告诉机器下一步要走什么位置;而reinforcement Learning是说让机器和对手互弈,下了好几手之后赢了,机器就知道这一局棋下的不错,但是到底哪一步是赢的关键,机器是不知道的,他只知道自己是赢了还是输了。 \ No newline at end of file diff --git a/机器学习/李宏毅机器学习/学习笔记/2_Regression Case Study.md b/机器学习/李宏毅机器学习/学习笔记/2_Regression Case Study.md index 61b8ece2..8a7ea1ed 100644 --- a/机器学习/李宏毅机器学习/学习笔记/2_Regression Case Study.md +++ b/机器学习/李宏毅机器学习/学习笔记/2_Regression Case Study.md @@ -1,6 +1,25 @@ # Regression:Case Study -> **回归**-案例研究 +## 回归问题 + +* 预测 + * 给出特征,预测特征的结果 +* 推荐 + * 一般包括两组对象。描述两组对象之间的关联性。 + * 例如读者+文章的推荐系统。读者的特征敏感度$\theta$+文章特征$x_i$。基于个人浏览记录和文章特征的内容推荐系统,给定后者,训练读者的特征敏感度,然后推荐;基于文章被浏览的记录和读者特征的内容推荐系统,给定前者,训练文章本身的特征,然后推荐;基于协同过滤算法,前者后者都没有,进行推荐。 + +## 机器学习的约定 + +* 使用上标代表数据集中单条数据的定位。 +* 使用下表代表单条数据中组成元素的定位。 +* 假设函数,即训练模型。 +* 损失函数,是关于参数的函数。 + +## 如何实现一个机器学习算法 + +1. 定义模型,给出假设函数,关于输入输出的函数。 +2. 定义损失,给出代价函数,关于参数的函数,输入输出用数据集代替。 +3. 梯度下降,最小化代价函数。 #### 问题的导入:预测宝可梦的CP值