分析總結Python數(shù)據(jù)化運營KMeans聚類
內容介紹
以 Python 使用 Keans 進行聚類分析的簡單舉例應用介紹聚類分析。
聚類分析 或 聚類 是對一組對象進行分組的任務,使得同一組(稱為聚類)中的對象(在某種意義上)與其他組(聚類)中的對象更相似(在某種意義上)。
它是探索性數(shù)據(jù)挖掘的主要任務,也是統(tǒng)計數(shù)據(jù)分析的常用技術,用于許多領域,包括機器學習,模式識別,圖像分析,信息檢索,生物信息學,數(shù)據(jù)壓縮和計算機圖形學。
一般應用場景
目標用戶的群體分類:
根據(jù)運營或商業(yè)目的挑選出來的變量,對目標群體進行聚類,將目標群體分成幾個有明顯的特征區(qū)別的細分群體,在運營活動中為這些細分群體采用精細化、個性化的運營和服務,提升運營的效率和商業(yè)效果。
不同產品的價值組合:
按特定的指標變量對眾多產品種類進行聚類。將產品體系細分成具有不同價值、不同目的、多維度產品組合,在此基礎上制定相應的產品開發(fā)計劃、運營計劃和服務計劃。
探索、發(fā)現(xiàn)孤立點及異常值:
主要是風控應用。孤立點可能會存在欺詐的風險成分。
聚類的常見方法
分為基于劃分、層次、密度、網(wǎng)格、統(tǒng)計學、模型等類型的算法,典型算法包括K均值(經(jīng)典的聚類算法)、DBSCAN、兩步聚類、BIRCH、譜聚類等。
Keans聚類實現(xiàn)
import numpy as np import matplotlib.pyplot as plt from sklearn.cluster import KMeans from sklearn import metrics import random # 隨機生成100組包含3組特征的數(shù)據(jù) feature = [[random.random(),random.random(),random.random()] for i in range(100)] label = [int(random.randint(0,2)) for i in range(100)] # 轉換數(shù)據(jù)格式 x_feature = np.array(feature) # 訓練聚類模型 n_clusters = 3 # 設置聚類數(shù)量 model_kmeans = KMeans(n_clusters=n_clusters, random_state=0) # 建立聚類模型對象 model_kmeans.fit(x_feature) # 訓練聚類模型 y_pre = model_kmeans.predict(x_feature) # 預測聚類模型 y_pre
聚類的評估指標
inertias
是K均值模型對象的屬性,表示樣本距離最近的聚類中心的總和,它是作為在沒有真實分類結果標簽下的非監(jiān)督式評估指標。
該值越小越好,值越小證明樣本在類間的分布越集中,即類內的距離越小。
# 樣本距離最近的聚類中心的總和 inertias = model_kmeans.inertia_
adjusted_rand_s:
調整后的蘭德指數(shù)(Adjusted Rand Index),蘭德指數(shù)通過考慮在預測和真實聚類中在相同或不同聚類中分配的所有樣本對和計數(shù)對來計算兩個聚類之間的相似性度量。
調整后的蘭德指數(shù)通過對蘭德指數(shù)的調整得到獨立于樣本量和類別的接近于0的值,其取值范圍為[-1, 1],負數(shù)代表結果不好,越接近于1越好意味著聚類結果與真實情況越吻合。
# 調整后的蘭德指數(shù) adjusted_rand_s = metrics.adjusted_rand_score(label, y_pre)
mutual_info_s:
互信息(Mutual Information, MI),互信息是一個隨機變量中包含的關于另一個隨機變量的信息量,在這里指的是相同數(shù)據(jù)的兩個標簽之間的相似度的量度,結果是非負值。
# 互信息 mutual_info_s = metrics.mutual_info_score(label, y_pre)
adjusted_mutual_info_s:
調整后的互信息(Adjusted Mutual Information, AMI),調整后的互信息是對互信息評分的調整得分。
它考慮到對于具有更大數(shù)量的聚類群,通常MI較高,而不管實際上是否有更多的信息共享,它通過調整聚類群的概率來糾正這種影響。
當兩個聚類集相同(即完全匹配)時,AMI返回值為1;隨機分區(qū)(獨立標簽)平均預期AMI約為0,也可能為負數(shù)。
# 調整后的互信息 adjusted_mutual_info_s = metrics.adjusted_mutual_info_score(label, y_pre)
homogeneity_s:
同質化得分(Homogeneity),如果所有的聚類都只包含屬于單個類的成員的數(shù)據(jù)點,則聚類結果將滿足同質性。其取值范圍[0,1]值越大意味著聚類結果與真實情況越吻合。
# 同質化得分 homogeneity_s = metrics.homogeneity_score(label, y_pre)
completeness_s:
完整性得分(Completeness),如果作為給定類的成員的所有數(shù)據(jù)點是相同集群的元素,則聚類結果滿足完整性。其取值范圍[0,1],值越大意味著聚類結果與真實情況越吻合。
# 完整性得分 completeness_s = metrics.completeness_score(label, y_pre)
v_measure_s:
它是同質化和完整性之間的諧波平均值,v = 2 (均勻性 完整性)/(均勻性+完整性)。其取值范圍[0,1],值越大意味著聚類結果與真實情況越吻合。
v_measure_s = metrics.v_measure_score(label, y_pre)
silhouette_s:
輪廓系數(shù)(Silhouette),它用來計算所有樣本的平均輪廓系數(shù),使用平均群內距離和每個樣本的平均最近簇距離來計算,它是一種非監(jiān)督式評估指標。其最高值為1,最差值為-1,0附近的值表示重疊的聚類,負值通常表示樣本已被分配到錯誤的集群。
# 平均輪廓系數(shù) silhouette_s = metrics.silhouette_score(x_feature, y_pre, metric='euclidean')
calinski_harabaz_s:
該分數(shù)定義為群內離散與簇間離散的比值,它是一種非監(jiān)督式評估指標。
# Calinski和Harabaz得分 calinski_harabaz_s = metrics.calinski_harabasz_score(x_feature, y_pre)
聚類效果可視化
# 模型效果可視化 centers = model_kmeans.cluster_centers_ # 各類別中心 colors = ['#4EACC5', '#FF9C34', '#4E9A06'] # 設置不同類別的顏色 plt.figure() # 建立畫布 for i in range(n_clusters): # 循環(huán)讀類別 index_sets = np.where(y_pre == i) # 找到相同類的索引集合 cluster = x_feature[index_sets] # 將相同類的數(shù)據(jù)劃分為一個聚類子集 plt.scatter(cluster[:, 0], cluster[:, 1], c=colors[i], marker='.') # 展示聚類子集內的樣本點 plt.plot(centers[i][0], centers[i][1], 'o', markerfacecolor=colors[i], markeredgecolor='k', markersize=6) # 展示各聚類子集的中心 plt.show() # 展示圖像
數(shù)據(jù)預測
# 模型應用 new_X = [1, 3.6,9.9] cluster_label = model_kmeans.predict(np.array(new_X).reshape(1,-1)) print ('聚類預測結果為: %d' % cluster_label)
以上就是分析總結Python數(shù)據(jù)化運營KMeans聚類的詳細內容,更多關于Python數(shù)據(jù)化運營KMeans聚類的資料請關注腳本之家其它相關文章!
相關文章
Python操作使用MySQL數(shù)據(jù)庫的實例代碼
本篇文章主要介紹了Python 操作 MySQL的實例代碼,詳細介紹了Python如何連接數(shù)據(jù)庫和對數(shù)據(jù)的增刪查改,有興趣的可以了解一下2017-05-05TensorFlow keras卷積神經(jīng)網(wǎng)絡 添加L2正則化方式
這篇文章主要介紹了TensorFlow keras卷積神經(jīng)網(wǎng)絡 添加L2正則化方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-05-05python_matplotlib改變橫坐標和縱坐標上的刻度(ticks)方式
這篇文章主要介紹了python_matplotlib改變橫坐標和縱坐標上的刻度(ticks)方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-05-05詳解Tensorflow數(shù)據(jù)讀取有三種方式(next_batch)
本篇文章主要介紹了Tensorflow數(shù)據(jù)讀取有三種方式(next_batch),小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-02-02