python中實(shí)現(xiàn)k-means聚類算法詳解
算法優(yōu)缺點(diǎn):
優(yōu)點(diǎn):容易實(shí)現(xiàn)
缺點(diǎn):可能收斂到局部最小值,在大規(guī)模數(shù)據(jù)集上收斂較慢
使用數(shù)據(jù)類型:數(shù)值型數(shù)據(jù)
算法思想
k-means算法實(shí)際上就是通過計(jì)算不同樣本間的距離來判斷他們的相近關(guān)系的,相近的就會(huì)放到同一個(gè)類別中去。
1.首先我們需要選擇一個(gè)k值,也就是我們希望把數(shù)據(jù)分成多少類,這里k值的選擇對(duì)結(jié)果的影響很大,Ng的課說的選擇方法有兩種一種是elbow method,簡(jiǎn)單的說就是根據(jù)聚類的結(jié)果和k的函數(shù)關(guān)系判斷k為多少的時(shí)候效果最好。另一種則是根據(jù)具體的需求確定,比如說進(jìn)行襯衫尺寸的聚類你可能就會(huì)考慮分成三類(L,M,S)等
2.然后我們需要選擇最初的聚類點(diǎn)(或者叫質(zhì)心),這里的選擇一般是隨機(jī)選擇的,代碼中的是在數(shù)據(jù)范圍內(nèi)隨機(jī)選擇,另一種是隨機(jī)選擇數(shù)據(jù)中的點(diǎn)。這些點(diǎn)的選擇會(huì)很大程度上影響到最終的結(jié)果,也就是說運(yùn)氣不好的話就到局部最小值去了。這里有兩種處理方法,一種是多次取均值,另一種則是后面的改進(jìn)算法(bisecting K-means)
3.終于我們開始進(jìn)入正題了,接下來我們會(huì)把數(shù)據(jù)集中所有的點(diǎn)都計(jì)算下與這些質(zhì)心的距離,把它們分到離它們質(zhì)心最近的那一類中去。完成后我們則需要將每個(gè)簇算出平均值,用這個(gè)點(diǎn)作為新的質(zhì)心。反復(fù)重復(fù)這兩步,直到收斂我們就得到了最終的結(jié)果。
函數(shù)
loadDataSet(fileName)
從文件中讀取數(shù)據(jù)集
distEclud(vecA, vecB)
計(jì)算距離,這里用的是歐氏距離,當(dāng)然其他合理的距離都是可以的
randCent(dataSet, k)
隨機(jī)生成初始的質(zhì)心,這里是雖具選取數(shù)據(jù)范圍內(nèi)的點(diǎn)
kMeans(dataSet, k, distMeas=distEclud, createCent=randCent)
kmeans算法,輸入數(shù)據(jù)和k值。后面兩個(gè)事可選的距離計(jì)算方式和初始質(zhì)心的選擇方式
show(dataSet, k, centroids, clusterAssment)
可視化結(jié)果
#coding=utf-8 from numpy import * def loadDataSet(fileName): dataMat = [] fr = open(fileName) for line in fr.readlines(): curLine = line.strip().split('\t') fltLine = map(float, curLine) dataMat.append(fltLine) return dataMat #計(jì)算兩個(gè)向量的距離,用的是歐幾里得距離 def distEclud(vecA, vecB): return sqrt(sum(power(vecA - vecB, 2))) #隨機(jī)生成初始的質(zhì)心(ng的課說的初始方式是隨機(jī)選K個(gè)點(diǎn)) def randCent(dataSet, k): n = shape(dataSet)[1] centroids = mat(zeros((k,n))) for j in range(n): minJ = min(dataSet[:,j]) rangeJ = float(max(array(dataSet)[:,j]) - minJ) centroids[:,j] = minJ + rangeJ * random.rand(k,1) return centroids def kMeans(dataSet, k, distMeas=distEclud, createCent=randCent): m = shape(dataSet)[0] clusterAssment = mat(zeros((m,2)))#create mat to assign data points #to a centroid, also holds SE of each point centroids = createCent(dataSet, k) clusterChanged = True while clusterChanged: clusterChanged = False for i in range(m):#for each data point assign it to the closest centroid minDist = inf minIndex = -1 for j in range(k): distJI = distMeas(centroids[j,:],dataSet[i,:]) if distJI < minDist: minDist = distJI; minIndex = j if clusterAssment[i,0] != minIndex: clusterChanged = True clusterAssment[i,:] = minIndex,minDist**2 print centroids for cent in range(k):#recalculate centroids ptsInClust = dataSet[nonzero(clusterAssment[:,0].A==cent)[0]]#get all the point in this cluster centroids[cent,:] = mean(ptsInClust, axis=0) #assign centroid to mean return centroids, clusterAssment def show(dataSet, k, centroids, clusterAssment): from matplotlib import pyplot as plt numSamples, dim = dataSet.shape mark = ['or', 'ob', 'og', 'ok', '^r', '+r', 'sr', 'dr', '<r', 'pr'] for i in xrange(numSamples): markIndex = int(clusterAssment[i, 0]) plt.plot(dataSet[i, 0], dataSet[i, 1], mark[markIndex]) mark = ['Dr', 'Db', 'Dg', 'Dk', '^b', '+b', 'sb', 'db', '<b', 'pb'] for i in range(k): plt.plot(centroids[i, 0], centroids[i, 1], mark[i], markersize = 12) plt.show() def main(): dataMat = mat(loadDataSet('testSet.txt')) myCentroids, clustAssing= kMeans(dataMat,4) print myCentroids show(dataMat, 4, myCentroids, clustAssing) if __name__ == '__main__': main()
這里是聚類結(jié)果,還是很不錯(cuò)的啦
但是有時(shí)候也會(huì)收斂到局部最小值,就像下面這樣,就是不幸收斂到局部最優(yōu)了
總結(jié)
以上就是本文關(guān)于python中實(shí)現(xiàn)k-means聚類算法詳解的全部?jī)?nèi)容,希望對(duì)大家有所幫助。感興趣的朋友可以繼續(xù)參閱本站:
Python數(shù)據(jù)結(jié)構(gòu)與算法之列表(鏈表,linked list)簡(jiǎn)單實(shí)現(xiàn)
Python算法之求n個(gè)節(jié)點(diǎn)不同二叉樹個(gè)數(shù)
有什么問題可以隨時(shí)留言,小編會(huì)及時(shí)回復(fù)大家的。感謝朋友們對(duì)本站的支持!
相關(guān)文章
Python 序列化和反序列化庫 MarshMallow 的用法實(shí)例代碼
marshmallow(Object serialization and deserialization, lightweight and fluffy.)用于對(duì)對(duì)象進(jìn)行序列化和反序列化,并同步進(jìn)行數(shù)據(jù)驗(yàn)證。這篇文章主要介紹了Python 序列化和反序列化庫 MarshMallow 的用法實(shí)例代碼,需要的朋友可以參考下2020-02-02Python監(jiān)控主機(jī)是否存活并以郵件報(bào)警
本文是利用python腳本寫的簡(jiǎn)單測(cè)試主機(jī)是否存活,此腳本有個(gè)缺點(diǎn)不適用線上,由于網(wǎng)絡(luò)延遲、丟包現(xiàn)象會(huì)造成誤報(bào)郵件,感興趣的朋友一起看看Python監(jiān)控主機(jī)是否存活并以郵件報(bào)警吧2015-09-09pytorch使用horovod多gpu訓(xùn)練的實(shí)現(xiàn)
這篇文章主要介紹了pytorch使用horovod多gpu訓(xùn)練的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-09-09Python實(shí)現(xiàn)判斷變量是否是函數(shù)方式
這篇文章主要介紹了Python實(shí)現(xiàn)判斷變量是否是函數(shù)方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2024-02-02Selenium webdriver添加cookie實(shí)現(xiàn)過程詳解
這篇文章主要介紹了Selenium webdriver添加cookie實(shí)現(xiàn)過程詳解,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-08-08python生成多個(gè)只含0,1元素的隨機(jī)數(shù)組或列表的實(shí)例
今天小編就為大家分享一篇python生成多個(gè)只含0,1元素的隨機(jī)數(shù)組或列表的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2018-11-11Python運(yùn)算符之Inplace運(yùn)算符的使用教程
Inplace運(yùn)算符的行為與普通運(yùn)算符相似,只是在可變目標(biāo)和不可變目標(biāo)的情況下它們以不同的方式起作用。本文將通過示例帶大家了解Inplace運(yùn)算符的使用,需要的可以參考一下2022-09-09