最近在翻译《Programming Computer Vision with Python》第六章Clustering Images图像聚类,其中用到了k-means聚类算法,这里根据书中给出的实例对用python进行k-means聚类做一些解释。关于k-means聚类算法的原理,这里不细述,具体原理可以查阅相关资料。
K-means是聚类算法中最简单的一种聚类算法,它试着将输入数据划分成k簇,该算法最主要的缺点是需要事先选择聚类数目,并且如果选择不合理的话,聚类结果会很差。K-means以下面步骤迭代的提炼类中心:
1.初始化类中心,可以是随机的,也可以是估计的。
2.将每个数据点分配给与它距离最近的类中心。
对同属于一类的所有数据求平均,更新聚类中心
K-means试图最小化所有的within-class的方差。该算法是一种启发式提炼算法,在大多数情况下,它都很有效,但是并不能确保获得的解答是最好的。为了避免在初始化时选择不好而造成的影响,该算法通常会用不同的初始值运行几遍,然后选择方差最小的。虽然上面K-means的算法很容易实现,但由于有现成的实现vector quantization package,所以我们没必要再做自己去实现,直接使用上面的模块即可。
在给出完整代码之前,我们先来理解两个numpy
、scipy
两个模块中设计到的两个函数,分别对应的是numpy.vstack()
和scipy.cluster.vq()
。我们直接看这两个函数的例子:
Example for numpy.vstack():
>>> a = np.array([1, 2, 3])
>>> b = np.array([2, 3, 4])
>>> np.vstack((a,b)) 输出结果为:
array([[1, 2, 3], [2, 3, 4]])
从这个简单的例子可以看出,np.vstack()
这个函数实现connection的作用,即connection(a,b)
,为了看得更清楚,我们再来看一个这个函数的例子:
>>> a = np.array([[1], [2], [3]])
>>> b = np.array([[2], [3], [4]])
>>> np.vstack((a,b)) 输出结果这里不给出了,具体可以再python shell上test。好了,现在我们了解了这个函数的作用,我们再来看`scipy.cluster.vq()`函数的作用,这里也直接给出实例,通过实例解释该函数的作用:
Example for scipy.cluster.vq():
>>> from numpy import array
>>> from scipy.cluster.vq import vq
>>> code_book = array([[1.,1.,1.],[2.,2.,2.]])
>>> features = array([[ 1.9,2.3,1.7],[ 1.5,2.5,2.2],[ 0.8,0.6,1.7]])
>>> vq(features,code_book) 输出结果为:
(array([1, 1, 0]), array([ 0.43588989, 0.73484692, 0.83066239])),
下图解释了该结果的意义,array([1, 1, 0])
中的元素表示features中的数据点对应于code_book中离它最近距离的索引,如数据点[1.9, 2.3, 1.7]
离code_book
中的[2., 2., 2.]
最近,该数据点对的对应于code_book
中离它最近距离的索引为1,在python中索引值时从0开始的。
当然,对于上面的结果可以用linalg.norm()
函数进行验证,验证过程为:
>>> from numpy import array
>>> from scipy.cluster.vq import vq
>>> code_book = array([[1.,1.,1.],[2.,2.,2.]])
>>> features = array([[ 1.9,2.3,1.7],[ 1.5,2.5,2.2],[ 0.8,0.6,1.7]])
>>> vq(features,code_book)
>>> from numpy import *
>>> dist = linalg.norm(code_book[1,:] - features[0,:]) 输出的dist的结果为:`dist: 0.43588989435406728`
好了,了解完这两个函数,我们可以上完整了演示k-means完整的代码了。
"""
Function: Illustrate the k-means
Date: 2013-10-27
""""
from pylab import *
from scipy.cluster.vq import *
# 生成模拟数据
class1 = 1.5 * randn(100, 2)
class2 = randn(100,2) + array([5, 5])
features = vstack((class1,class2))
# K-Means聚类
centroids, variance = kmeans(features, 2)
code, distance = vq(features, centroids)
figure()
ndx = where(code==0)[0]
plot(features[ndx,0], features[ndx,1],'*')
ndx = where(code==1)[0]
plot(features[ndx, 0],features[ndx,1], 'r.')
plot(centroids[:, 0],centroids[:, 1], 'go')
axis('off')
show()
上述代码中先随机生成两类数据,每一类数据是一个100*2的矩阵,centroids
是聚类中心。返回来的variance
我们并不需要它,因为SciPy
实现中,会默认运行20次,并为我们选择方差最小的那一次。这里聚类中心k=2
,并将其作为code_book
代用vq()
,代码运行结果如下:
上图显示了原数据聚完类后的结果,绿色圆点表示聚类中心。
该工具确实非常的有用,但是需要注意的是python实现的K-means没有c++实现的快,所以如果你在很大的数据集上用python进行聚类,会花费上一些时间。不过,在大多数情况下,足够我们使用了。
参考资料: 1.Clustering using SciPy’s k-means