欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

使用Python處理KNN分類算法的實現(xiàn)代碼

 更新時間:2022年09月06日 14:29:37   作者:阿里機器智能  
KNN分類算法(K-Nearest-Neighbors?Classification),又叫K近鄰算法,是一個概念極其簡單,而分類效果又很優(yōu)秀的分類算法,這篇文章主要介紹了使用Python處理KNN分類算法,需要的朋友可以參考下

簡介: 我們在這世上,選擇什么就成為什么,人生的豐富多彩,得靠自己成就。你此刻的付出,決定了你未來成為什么樣的人,當(dāng)你改變不了世界,你還可以改變自己。

KNN分類算法的介紹

KNN分類算法(K-Nearest-Neighbors Classification),又叫K近鄰算法,是一個概念極其簡單,而分類效果又很優(yōu)秀的分類算法。

他的核心思想就是,要確定測試樣本屬于哪一類,就尋找所有訓(xùn)練樣本中與該測試樣本“距離”最近的前K個樣本,然后看這K個樣本大部分屬于哪一類,那么就認為這個測試樣本也屬于哪一類。簡單的說就是讓最相似的K個樣本來投票決定。

這里所說的距離,一般最常用的就是多維空間的歐式距離。這里的維度指特征維度,即樣本有幾個特征就屬于幾維。

KNN示意圖如下所示。(圖片來源:百度百科)

上圖中要確定測試樣本綠色屬于藍色還是紅色。

顯然,當(dāng)K=3時,將以1:2的投票結(jié)果分類于紅色;而K=5時,將以3:2的投票結(jié)果分類于藍色。

KNN算法簡單有效,但沒有優(yōu)化的暴力法效率容易達到瓶頸。如樣本個數(shù)為N,特征維度為D的時候,該算法時間復(fù)雜度呈O(DN)增長。

所以通常KNN的實現(xiàn)會把訓(xùn)練數(shù)據(jù)構(gòu)建成K-D Tree(K-dimensional tree),構(gòu)建過程很快,甚至不用計算D維歐氏距離,而搜索速度高達O(D*log(N))。

不過當(dāng)D維度過高,會產(chǎn)生所謂的”維度災(zāi)難“,最終效率會降低到與暴力法一樣。

因此通常D>20以后,最好使用更高效率的Ball-Tree,其時間復(fù)雜度為O(D*log(N))。

人們經(jīng)過長期的實踐發(fā)現(xiàn)KNN算法雖然簡單,但能處理大規(guī)模的數(shù)據(jù)分類,尤其適用于樣本分類邊界不規(guī)則的情況。最重要的是該算法是很多高級機器學(xué)習(xí)算法的基礎(chǔ)。

當(dāng)然,KNN算法也存在一切問題。比如如果訓(xùn)練數(shù)據(jù)大部分都屬于某一類,投票算法就有很大問題了。這時候就需要考慮設(shè)計每個投票者票的權(quán)重了。

測試數(shù)據(jù)

測試數(shù)據(jù)的格式仍然和前面使用的身高體重數(shù)據(jù)一致。不過數(shù)據(jù)稍微增加了一些

1.5 40 thin
1.5 50 fat
1.5 60 fat
1.6 40 thin
1.6 50 thin
1.6 60 fat
1.6 70 fat
1.7 50 thin
1.7 60 thin
1.7 70 fat
1.7 80 fat
1.8 60 thin
1.8 70 thin
1.8 80 fat
1.8 90 fat
1.9 80 thin
1.9 90 fat

Python代碼實現(xiàn)

scikit-learn提供了優(yōu)秀的KNN算法支持。

import numpy as np
from sklearn import neighbors
from sklearn.metrics import precision_recall_curve
from sklearn.metrics import classification_report
from sklearn.cross_validation import train_test_split
import matplotlib.pyplot as plt
 
''' 數(shù)據(jù)讀入 '''
data = []
labels = []
with open("data\\1.txt") as ifile:
 for line in ifile:
  tokens = line.strip().split(' ')
  data.append([float(tk) for tk in tokens[:-1]])
  labels.append(tokens[-1])
x = np.array(data)
labels = np.array(labels)
y = np.zeros(labels.shape)
 
''' 標簽轉(zhuǎn)換為0/1 '''
y[labels=='fat']=1
 
''' 拆分訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù) '''
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.2)
 
''' 創(chuàng)建網(wǎng)格以方便繪制 '''
h = .01
x_min, x_max = x[:, 0].min() - 0.1, x[:, 0].max() + 0.1
y_min, y_max = x[:, 1].min() - 1, x[:, 1].max() + 1
xx, yy = np.meshgrid(np.arange(x_min, x_max, h),
   np.arange(y_min, y_max, h))
 
''' 訓(xùn)練KNN分類器 '''
clf = neighbors.KNeighborsClassifier(algorithm='kd_tree')
clf.fit(x_train, y_train)
 
'''測試結(jié)果的打印'''
answer = clf.predict(x)
print(x)
print(answer)
print(y)
print(np.mean( answer == y))
 
'''準確率與召回率'''
precision, recall, thresholds = precision_recall_curve(y_train, clf.predict(x_train))
answer = clf.predict_proba(x)[:,1]
print(classification_report(y, answer, target_names = ['thin', 'fat']))
 
''' 將整個測試空間的分類結(jié)果用不同顏色區(qū)分開'''
answer = clf.predict_proba(np.c_[xx.ravel(), yy.ravel()])[:,1]
z = answer.reshape(xx.shape)
plt.contourf(xx, yy, z, cmap=plt.cm.Paired, alpha=0.8)
 
''' 繪制訓(xùn)練樣本 '''
plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=plt.cm.Paired)
plt.xlabel(u'身高')
plt.ylabel(u'體重')
plt.show()

結(jié)果分析

輸出結(jié)果:
[ 0.  0.  1.  0.  0.  1.  1.  0.  0.  1.  1.  0.  0.  1.  1.  0.  1.]
[ 0.  1.  1.  0.  0.  1.  1.  0.  0.  1.  1.  0.  0.  1.  1.  0.  1.]
準確率=0.94, score=0.94
             precision    recall  f1-score   support
       thin      0.89      1.00      0.94         8
        fat       1.00      0.89      0.94         9
avg / total       0.95      0.94      0.94        17

KNN分類器在眾多分類算法中屬于最簡單的之一,需要注意的地方不多。有這幾點要說明:

1、KNeighborsClassifier可以設(shè)置3種算法:‘brute',‘kd_tree',‘ball_tree'。如果不知道用哪個好,設(shè)置‘auto'讓KNeighborsClassifier自己根據(jù)輸入去決定。

2、注意統(tǒng)計準確率時,分類器的score返回的是計算正確的比例,而不是R2。R2一般應(yīng)用于回歸問題。

3、本例先根據(jù)樣本中身高體重的最大最小值,生成了一個密集網(wǎng)格(步長h=0.01),然后將網(wǎng)格中的每一個點都當(dāng)成測試樣本去測試,最后使用contourf函數(shù),使用不同的顏色標注出了胖、廋兩類。

容易看到,本例的分類邊界,屬于相對復(fù)雜,但卻又與距離呈現(xiàn)明顯規(guī)則的鋸齒形。

這種邊界線性函數(shù)是難以處理的。而KNN算法處理此類邊界問題具有天生的優(yōu)勢。我們在后續(xù)的系列中會看到,這個數(shù)據(jù)集達到準確率=0.94算是很優(yōu)秀的結(jié)果了。

到此這篇關(guān)于使用Python處理KNN分類算法的實現(xiàn)代碼的文章就介紹到這了,更多相關(guān)Python KNN分類算法內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • python聚類算法解決方案(rest接口/mpp數(shù)據(jù)庫/json數(shù)據(jù)/下載圖片及數(shù)據(jù))

    python聚類算法解決方案(rest接口/mpp數(shù)據(jù)庫/json數(shù)據(jù)/下載圖片及數(shù)據(jù))

    這篇文章主要介紹了python聚類算法解決方案(rest接口/mpp數(shù)據(jù)庫/json數(shù)據(jù)/下載圖片及數(shù)據(jù)),文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2019-08-08
  • tensorflow 獲取變量&打印權(quán)值的實例講解

    tensorflow 獲取變量&打印權(quán)值的實例講解

    今天小編就為大家分享一篇tensorflow 獲取變量&打印權(quán)值的實例講解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-06-06
  • Python greenlet實現(xiàn)原理和使用示例

    Python greenlet實現(xiàn)原理和使用示例

    這篇文章主要介紹了Python greenlet實現(xiàn)原理和使用示例,greenlet是Python中的一個并行處理庫,需要的朋友可以參考下
    2014-09-09
  • python pyecharts庫的用法大全

    python pyecharts庫的用法大全

    這篇文章主要介紹了python pyecharts庫的用法大全,pyecharts 是一個用于生成 Echarts 圖表的類庫,本文通過實例代碼給大家介紹的非常詳細,對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友參考下吧
    2021-04-04
  • 理解python中裝飾器的作用

    理解python中裝飾器的作用

    python裝飾器就是用于拓展原來函數(shù)功能的一種函數(shù),這個函數(shù)的特殊之處在于它的返回值也是一個函數(shù),使用python裝飾器的好處就是在不用更改原函數(shù)的代碼前提下給函數(shù)增加新的功能
    2021-07-07
  • Python中反轉(zhuǎn)二維數(shù)組的行和列問題

    Python中反轉(zhuǎn)二維數(shù)組的行和列問題

    這篇文章主要介紹了Python中反轉(zhuǎn)二維數(shù)組的行和列問題,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2023-01-01
  • python中使用np.delete()的實例方法

    python中使用np.delete()的實例方法

    在本篇文章里小編給大家整理的是一篇關(guān)于python中使用np.delete()的實例方法,對此有興趣的朋友們可以學(xué)習(xí)參考下。
    2021-02-02
  • Pycharm配置PyQt5環(huán)境的教程

    Pycharm配置PyQt5環(huán)境的教程

    這篇文章主要介紹了Pycharm配置PyQt5環(huán)境的教程,本文通過圖文實例詳解給大家介紹的非常詳細,對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-04-04
  • Python在字符串中處理html和xml的方法

    Python在字符串中處理html和xml的方法

    這篇文章主要介紹了Python在字符串中處理html和xml的方法,文中講解非常細致,代碼幫助大家更好的理解和學(xué)習(xí),感興趣的朋友可以了解下
    2020-07-07
  • Python實現(xiàn)簡易的限流器介紹

    Python實現(xiàn)簡易的限流器介紹

    大家好,本篇文章主要講的是Python實現(xiàn)簡易的限流器介紹,感興趣的同學(xué)趕快來看一看吧,對你有幫助的話記得收藏一下
    2022-01-01

最新評論