This commit is contained in:
jiangzhonglian
2017-03-03 17:35:40 +08:00
7 changed files with 78 additions and 0 deletions

View File

@@ -12,6 +12,7 @@
* [决策树](./docs/3.决策树.md)
* 4) 基于概率论的分类方法:朴素贝叶斯
* 5) Logistic回归
* [Logistic回归](./docs/5.Logistic回归.md)
* 6) 支持向量机
* 7) 利用AdaBoost元算法提高分类

View File

@@ -0,0 +1,9 @@
# 11.使用Apriori算法进行关联分析 #
**- 概念**
1. 关联关系associati analysis 从大规模数据集中寻找物品间的隐含关系呗称作关联关系或者关联规则学习。关系有两种形式:频繁项集(经常一块出现的物品集合);关联规则(暗示两种物品之间可能存在很强的关系)
2. 项集的支持度(support):数据集中包含该项集的记录所占的比例
3. 置信度confidence):置信度({A}->{B}) = 支持度{A,B}/支持度{A}
Apriori原理如果某个项集是频繁的那么它的所有子集也是频繁的反之一个项集是非频繁的那么它的所有超集也是非频繁的。

View File

@@ -0,0 +1,21 @@
# 12.使用FP-growth算法来高效发现频繁项集 #
**- 基本过程**
- 构建FP树
* 对原始数据集扫描两遍
* 第一遍对所有元素项遍历,并记下出现次数。
* 第二遍只扫描频繁元素。
- 从FP树种挖掘频繁项集
**FP树介绍**
是一种紧凑的数据结构FP代表频繁模式Frequent Pattem每个项集以路径的方式存储在树中。
包含:项集【集合中的单个元素+出现次数+父节点】
* 与其他树结构相比
* 它通过链接(link)来连接相似元素,被连起来的元素项可以看成一个链表。
* 一个元素项可以出现多次

11
docs/5.Logistic回归.md Normal file
View File

@@ -0,0 +1,11 @@
# 1) 逻辑回归基础
* 逻辑回归(Logistic Regression)
* 1.1 分类问题
* 1.2 假说表示
* 1.3 判定边界
* 1.4 代价函数
* 1.5 简化的成本函数和梯度下降
* 1.6 高级优化
* 1.7 多类分类:一个对所有

View File

@@ -0,0 +1,12 @@
def loadDataSet():
return [[1,3,4],[2,3,5],[1,2,3,5],[2,5]]
def createC1(dataSet):
c1=[]
for transaction in dataSet:
for item in transaction:
if not [item] in c1:
c1.append([item])
c1.sort()
return map(frozenset,c1)
def scanD(D,ck,minSupport):
ssCnt = {}

View File

@@ -0,0 +1,19 @@
class treeNode:
def __init__(self,nameValue,numOccur,parentNode):
self.name = nameValue
self.count = numOccur
self.nodeLink = None
self.parent = parentNode
self.children = {}
def inc(self,numOccur):
self.count += numOccur
def disp(self,ind=1):
print(' '*ind,self.name,' ',self.count)
for child in self.children.values():
child.disp(ind+1)
if __name__ == "__main__":
import fpGrowth
rootNode = fpGrowth.treeNode('pyramid',9,None)
rootNode.children['eye']=fpGrowth.treeNode('eye',13,None)
rootNode.disp()

View File

@@ -0,0 +1,5 @@
class Test:
if __name__ == "__main__":
fza=frozenset(['a','bc'])
adict={fza:1,'b':2}
print(adict)