mirror of
https://github.com/apachecn/ailearning.git
synced 2026-02-13 15:26:28 +08:00
更新10.kmeans注释
This commit is contained in:
@@ -3,6 +3,7 @@
|
||||
|
||||
from numpy import *
|
||||
|
||||
|
||||
# 从文本中构建矩阵,加载文本文件,然后处理
|
||||
def loadDataSet(fileName): # 通用函数,用来解析以 tab 键分隔的 floats(浮点数)
|
||||
dataMat = [] # 假设最后一列是目标变量
|
||||
@@ -13,10 +14,12 @@ def loadDataSet(fileName): # 通用函数,用来解析以 tab 键分隔的
|
||||
dataMat.append(fltLine)
|
||||
return dataMat
|
||||
|
||||
|
||||
# 计算两个向量的欧式距离(可根据场景选择)
|
||||
def distEclud(vecA, vecB):
|
||||
return sqrt(sum(power(vecA - vecB, 2))) # la.norm(vecA-vecB)
|
||||
|
||||
|
||||
# 为给定数据集构建一个包含 k 个随机质心的集合。随机质心必须要在整个数据集的边界之内,这可以通过找到数据集每一维的最小和最大值来完成。然后生成 0~1.0 之间的随机数并通过取值范围和最小值,以便确保随机点在数据的边界之内。
|
||||
def randCent(dataSet, k):
|
||||
n = shape(dataSet)[1] # 列的数俩
|
||||
@@ -27,13 +30,14 @@ def randCent(dataSet, k):
|
||||
centroids[:,j] = mat(minJ + rangeJ * random.rand(k,1)) # 随机生成
|
||||
return centroids
|
||||
|
||||
|
||||
# k-means 聚类算法
|
||||
# 该算法会创建k个质心,然后将每个点分配到最近的质心,再重新计算质心。
|
||||
# 这个过程重复数次,知道数据点的簇分配结果不再改变位置。
|
||||
# 运行结果(多次运行结果可能会不一样,可以试试,原因为随机质心的影响,但总的结果是对的, 因为数据足够相似,也可能会陷入局部最小值)
|
||||
def kMeans(dataSet, k, distMeas=distEclud, createCent=randCent):
|
||||
m = shape(dataSet)[0] # 行数
|
||||
clusterAssment = mat(zeros((m,2))) # 创建一个与 dataSet 行数一样,但是有两列的矩阵,用来保存簇分配结果。
|
||||
clusterAssment = mat(zeros((m, 2))) # 创建一个与 dataSet 行数一样,但是有两列的矩阵,用来保存簇分配结果
|
||||
centroids = createCent(dataSet, k) # 创建质心,随机k个质心
|
||||
clusterChanged = True
|
||||
while clusterChanged:
|
||||
@@ -44,10 +48,36 @@ def kMeans(dataSet, k, distMeas=distEclud, createCent=randCent):
|
||||
distJI = distMeas(centroids[j,:],dataSet[i,:]) # 计算距离
|
||||
if distJI < minDist: # 如果距离比 minDist(最小距离)还小,更新 minDist(最小距离)和最小质心的 index(索引)
|
||||
minDist = distJI; minIndex = j
|
||||
if clusterAssment[i,0] != minIndex: clusterChanged = True
|
||||
clusterAssment[i,:] = minIndex,minDist**2 # 更新簇分配结果为最小质心的 index(索引),minDist(最小距离)的平方
|
||||
if clusterAssment[i, 0] != minIndex:
|
||||
clusterChanged = True
|
||||
clusterAssment[i, :] = minIndex,minDist**2 # 更新簇分配结果为最小质心的 index(索引),minDist(最小距离)的平方
|
||||
print centroids
|
||||
for cent in range(k): # 更新质心
|
||||
ptsInClust = dataSet[nonzero(clusterAssment[:,0].A==cent)[0]] # 获取该簇中的所有点
|
||||
ptsInClust = dataSet[nonzero(clusterAssment[:, 0].A==cent)[0]] # 获取该簇中的所有点
|
||||
centroids[cent,:] = mean(ptsInClust, axis=0) # 将质心修改为簇中所有点的平均值,mean 就是求平均值的
|
||||
return centroids, clusterAssment
|
||||
|
||||
|
||||
if __name__ == "__main__":
|
||||
|
||||
datMat = mat(loadDataSet('input/10.KMeans/testSet.txt'))
|
||||
|
||||
# 测试 randCent() 函数是否正常运行。
|
||||
# 首先,先看一下矩阵中的最大值与最小值
|
||||
print 'min(datMat[:, 0])=', min(datMat[:, 0])
|
||||
print 'min(datMat[:, 1])=', min(datMat[:, 1])
|
||||
print 'max(datMat[:, 1])=', max(datMat[:, 1])
|
||||
print 'max(datMat[:, 0])=', max(datMat[:, 0])
|
||||
|
||||
# 然后看看 randCent() 函数能否生成 min 到 max 之间的值
|
||||
# print 'randCent(datMat, 2)=', randCent(datMat, 2)
|
||||
|
||||
# 最后测试一下距离计算方法
|
||||
# print ' distEclud(datMat[0], datMat[1])=', distEclud(datMat[0], datMat[1])
|
||||
|
||||
# 该算法会创建k个质心,然后将每个点分配到最近的质心,再重新计算质心。
|
||||
# 这个过程重复数次,知道数据点的簇分配结果不再改变位置。
|
||||
# 运行结果(多次运行结果可能会不一样,可以试试,原因为随机质心的影响,但总的结果是对的, 因为数据足够相似)
|
||||
myCentroids, clustAssing = kMeans(datMat, 4)
|
||||
|
||||
# print 'centroids=', myCentroids
|
||||
|
||||
Reference in New Issue
Block a user