mirror of
https://github.com/apachecn/ailearning.git
synced 2026-05-07 14:13:14 +08:00
@@ -1,7 +1,7 @@
|
||||
# 第2章 k-近邻算法
|
||||
<script type="text/javascript" src="http://cdn.mathjax.org/mathjax/latest/MathJax.js?config=default"></script>
|
||||
|
||||

|
||||

|
||||
|
||||
众说周知,电影可以按照题材分类的;而我们却知道每部电影在风格上的确可能和同题材的电影相近。
|
||||
那么动作片具有哪些共有特征,使得动作片之间非常相似,而与爱情片存在着明显的差别呢?<br/>
|
||||
@@ -133,3 +133,9 @@ $$\sqrt{(0-67)^2 + (20000-32000)^2 + (1.1-0.1)^2 }$$
|
||||
* 阅读本章之前建议阅读一下numpy的文档
|
||||
* [numpy英文文档](https://docs.scipy.org/doc/numpy-dev/user/quickstart.html "NumPy英文文档")
|
||||
* [numpy中文文档](http://old.sebug.net/paper/books/scipydoc/numpy_intro.html "NumPy中文文档")
|
||||
* * *
|
||||
|
||||
|
||||
* **作者:[小瑶](http://www.apache.wiki/users/viewmyprofile.action)**
|
||||
* [GitHub地址](https://github.com/apachecn/MachineLearning): <https://github.com/apachecn/MachineLearning>
|
||||
* **版权声明:欢迎转载学习 => 请标注信息来源于 [ApacheCN](http://www.apache.wiki)**
|
||||
|
||||
@@ -2,7 +2,7 @@
|
||||
# 第3章 决策树
|
||||
<script type="text/javascript" src="http://cdn.mathjax.org/mathjax/latest/MathJax.js?config=default"></script>
|
||||
|
||||

|
||||

|
||||
|
||||
## 决策树简介
|
||||
|
||||
@@ -105,3 +105,8 @@
|
||||
* 简单来说:就是从一个数据集中随机选取子项,度量其被错误分类到其他分组里的概率。
|
||||
* 流程介绍图
|
||||
* 
|
||||
* * *
|
||||
|
||||
* **作者:[小瑶](http://www.apache.wiki/users/viewmyprofile.action)**
|
||||
* [GitHub地址](https://github.com/apachecn/MachineLearning): <https://github.com/apachecn/MachineLearning>
|
||||
* **版权声明:欢迎转载学习 => 请标注信息来源于 [ApacheCN](http://www.apache.wiki)**
|
||||
@@ -2,7 +2,7 @@
|
||||
# 第4章 基于概率论的分类方法:朴素贝叶斯
|
||||
<script type="text/javascript" src="http://cdn.mathjax.org/mathjax/latest/MathJax.js?config=default"></script>
|
||||
|
||||

|
||||

|
||||
|
||||
## 使用概率分布进行分类
|
||||
|
||||
@@ -131,3 +131,9 @@ p(ci|x,y) = p(x,y|ci)·p(ci)/p(x,y)
|
||||
* 总结
|
||||
* 这一块代码比较乱,最好先把公式理一理再看
|
||||
* 可以参考一下[阮一峰的博客](http://www.ruanyifeng.com/blog/2013/12/naive_bayes_classifier.html)
|
||||
* * *
|
||||
|
||||
* **作者:[小瑶](http://www.apache.wiki/users/viewmyprofile.action)**
|
||||
* [GitHub地址](https://github.com/apachecn/MachineLearning): <https://github.com/apachecn/MachineLearning>
|
||||
* **版权声明:欢迎转载学习 => 请标注信息来源于 [ApacheCN](http://www.apache.wiki)**
|
||||
|
||||
|
||||
@@ -1,7 +1,7 @@
|
||||
# 第5章 Logistic回归
|
||||
<script type="text/javascript" src="http://cdn.mathjax.org/mathjax/latest/MathJax.js?config=default"></script>
|
||||
|
||||

|
||||

|
||||
|
||||
## Sigmoid函数和Logistic回归分类器
|
||||
|
||||
@@ -116,4 +116,8 @@
|
||||
* 5.4 代价函数
|
||||
* 5.5 简化的成本函数和梯度下降
|
||||
* 5.6 高级优化
|
||||
* 5.7 多类分类:一个对所有
|
||||
* * *
|
||||
|
||||
* **作者:[小瑶](http://www.apache.wiki/users/viewmyprofile.action)**
|
||||
* [GitHub地址](https://github.com/apachecn/MachineLearning): <https://github.com/apachecn/MachineLearning>
|
||||
* **版权声明:欢迎转载学习 => 请标注信息来源于 [ApacheCN](http://www.apache.wiki)**
|
||||
|
||||
@@ -163,4 +163,9 @@
|
||||
当数据的样本数比特征数还少的时候,矩阵x^Tx的逆不能直接计算。即便当样本数比特征数多时,x^Tx的逆仍有可能无法直接计算,这是因为特征有可能高度相关。
|
||||
这时可以考虑使用岭回归,因为当x^Tx的逆不能计算时,它仍保证能求得回归系数。
|
||||
岭回归是缩减法的一种,相当于对回归系数的大小施加了限制。另一种很好的缩减法是lasso。Lasso难以理解,但可以使用计算简便的逐步线性回归方法来求得近似结果。
|
||||
缩减法还可以看做是对一个模型增加偏差的同时减少方差。偏差方差折中是一个重要的概念,可以帮助我们理解现有模型并做出改进,从而得到最好的模型。
|
||||
缩减法还可以看做是对一个模型增加偏差的同时减少方差。偏差方差折中是一个重要的概念,可以帮助我们理解现有模型并做出改进,从而得到最好的模型。
|
||||
* * *
|
||||
|
||||
* **作者:[小瑶](http://www.apache.wiki/users/viewmyprofile.action)**
|
||||
* [GitHub地址](https://github.com/apachecn/MachineLearning): <https://github.com/apachecn/MachineLearning>
|
||||
* **版权声明:欢迎转载学习 => 请标注信息来源于 [ApacheCN](http://www.apache.wiki)**
|
||||
@@ -1,7 +1,7 @@
|
||||
# 第9章 树回归
|
||||
<script type="text/javascript" src="http://cdn.mathjax.org/mathjax/latest/MathJax.js?config=default"></script>
|
||||
|
||||

|
||||

|
||||
|
||||
## CART 算法
|
||||
|
||||
@@ -155,4 +155,9 @@
|
||||
对数据过拟合。一棵过拟合的树常常十分复杂,剪枝技术的出现就是为了解决这个问题。两种剪枝方法分别是预剪枝(在树的构建过程中就进行剪枝)和后剪枝(当树
|
||||
构建完毕再进行剪枝),预剪枝更有效但需要用户定义一些参数。
|
||||
Tkinter 是 Python 的一个 GUI 工具包。虽然并不是唯一的包,但它最常用。利用 Tkinter ,我们可以轻轻松松绘制各种部件并安排它们的位置。另外,可以为
|
||||
Tkinter 构造一个特殊的部件来显示 Matplotlib 绘出的图。所以,Matplotlib 和 Tkinter 的集成可以构建出更强大的 GUI ,用户可以以更自然的方式来探索机器学习算法的奥妙。
|
||||
Tkinter 构造一个特殊的部件来显示 Matplotlib 绘出的图。所以,Matplotlib 和 Tkinter 的集成可以构建出更强大的 GUI ,用户可以以更自然的方式来探索机器学习算法的奥妙。
|
||||
* * *
|
||||
|
||||
* **作者:[小瑶](http://www.apache.wiki/users/viewmyprofile.action)**
|
||||
* [GitHub地址](https://github.com/apachecn/MachineLearning): <https://github.com/apachecn/MachineLearning>
|
||||
* **版权声明:欢迎转载学习 => 请标注信息来源于 [ApacheCN](http://www.apache.wiki)**
|
||||
|
||||
BIN
images/2.KNN/k-近邻算法首页_xy.png
Normal file
BIN
images/2.KNN/k-近邻算法首页_xy.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 719 KiB |
BIN
images/3.DecisionTree/DecisionTree_headPage_xy.png
Normal file
BIN
images/3.DecisionTree/DecisionTree_headPage_xy.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 706 KiB |
BIN
images/4.NaiveBayesian/NavieBayesian_headPage_xy.png
Normal file
BIN
images/4.NaiveBayesian/NavieBayesian_headPage_xy.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 726 KiB |
BIN
images/5.Logistic/LogisticRegression_headPage_xy.png
Normal file
BIN
images/5.Logistic/LogisticRegression_headPage_xy.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 723 KiB |
BIN
images/9.TreeRegression/TreeRegression_headPage_xy.png
Normal file
BIN
images/9.TreeRegression/TreeRegression_headPage_xy.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 729 KiB |
Reference in New Issue
Block a user