欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

使用python實(shí)現(xiàn)kNN分類算法

 更新時(shí)間:2019年10月16日 11:41:30   作者:stridehuan  
這篇文章主要為大家詳細(xì)介紹了使用python實(shí)現(xiàn)kNN分類算法,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下

k-近鄰算法是基本的機(jī)器學(xué)習(xí)算法,算法的原理非常簡單:

輸入樣本數(shù)據(jù)后,計(jì)算輸入樣本和參考樣本之間的距離,找出離輸入樣本距離最近的k個(gè)樣本,找出這k個(gè)樣本中出現(xiàn)頻率最高的類標(biāo)簽作為輸入樣本的類標(biāo)簽,很直觀也很簡單,就是和參考樣本集中的樣本做對比。下面講一講用python實(shí)現(xiàn)kNN算法的方法,這里主要用了python中常用的numpy模塊,采用的數(shù)據(jù)集是來自UCI的一個(gè)數(shù)據(jù)集,總共包含1055個(gè)樣本,每個(gè)樣本有41個(gè)real的屬性和一個(gè)類標(biāo)簽,包含兩類(RB和NRB)。我選取800條樣本作為參考樣本,剩下的作為測試樣本。

下面是分類器的python代碼:

'''
kNNClassify(inputAttr, trainSetPath = '', lenOfInstance = 42, startAttr = 0, stopAttr = 40, posOfClass = 41, numOfRefSamples = 5)函數(shù)
參數(shù):
inputAttr:輸入的屬性向量
trainSetPath:字符串,保存訓(xùn)練樣本的路徑
lenOfInstance:樣本向量的維數(shù)
startAttr:屬性向量在整個(gè)樣本向量中的起始下標(biāo)
stopAttr:屬性向量在整個(gè)樣本向量中的終止下標(biāo)
posOfClass:類標(biāo)簽的在整個(gè)樣本向量中的下標(biāo)
numOfClSamples:選出來進(jìn)行投票的樣本個(gè)數(shù)
返回值:
類標(biāo)簽
'''
 
def kNNClassify(inputAttr, trainSetPath = '', lenOfInstance = 42, startAttr = 0, stopAttr = 40, posOfClass = 41, numOfRefSamples = 5):
  fr = open(trainSetPath)
  strOfLine = fr.readline()
  arrayOfLine = numpy.array([0.] * lenOfInstance)
  refSamples = numpy.array([[-1., 0.]] * numOfRefSamples)
  
  #找出屬性中的最大值和最小值,用于歸一化
  maxAttr, minAttr = kNNFunction.dataNorm(trainSetPath = trainSetPath, lenOfInstance = lenOfInstance)
  maxAttr = maxAttr[(numpy.array(range(stopAttr - startAttr + 1)) 
            + numpy.array([startAttr] * (stopAttr - startAttr + 1)))]
  minAttr = minAttr[(numpy.array(range(stopAttr - startAttr + 1)) 
            + numpy.array([startAttr] * (stopAttr - startAttr + 1)))]
  attrRanges = maxAttr - minAttr
  
  inputAttr = inputAttr[(numpy.array(range(stopAttr - startAttr + 1)) 
              + numpy.array([startAttr] * (stopAttr - startAttr + 1)))]
  inputAttr = (inputAttr - minAttr) / attrRanges       #歸一化
  
  #將字符串轉(zhuǎn)換為向量并進(jìn)行計(jì)算找出離輸入樣本距離最近的numOfRefSamples個(gè)參考樣本
  while strOfLine != '' :
    strOfLine = strOfLine.strip()
    strOfLine = strOfLine.split(';')
    
    abandonOrNot = False
    for i in range(lenOfInstance) :
      if strOfLine[i] == 'RB' :
        arrayOfLine[i] = 1.0
      elif strOfLine[i] == 'NRB' :
        arrayOfLine[i] = 0.0
      elif strOfLine[i] != '?' :             #沒有發(fā)現(xiàn)缺失值
        arrayOfLine[i] = float(strOfLine[i])     
        abandonOrNot = False
      else :                      #發(fā)現(xiàn)缺失值
        abandonOrNot = True
        break
    
    if abandonOrNot == True :
      strOfLine = fr.readline()
      continue
    else :
      attr = arrayOfLine[(numpy.array(range(stopAttr - startAttr + 1)) 
                + numpy.array([startAttr] * (stopAttr - startAttr + 1)))]
      attr = (attr - minAttr) / attrRanges      #歸一化    
      classLabel = arrayOfLine[posOfClass]
      distance = (attr - inputAttr) ** 2
      distance = distance.sum(axis = 0)
      distance = distance ** 0.5
      disAndLabel = numpy.array([distance, classLabel])
      refSamples = kNNFunction.insertItem(refSamples, numOfRefSamples, disAndLabel)
      strOfLine = fr.readline()
      continue
    
  #統(tǒng)計(jì)每個(gè)類標(biāo)簽出現(xiàn)的次數(shù)
  classCount = {}
  for i in range(numOfRefSamples) :
    voteLabel = refSamples[i][1]
    classCount[voteLabel] = classCount.get(voteLabel, 0) + 1
  sortedClassCount = sorted(classCount.iteritems(), key = operator.itemgetter(1), reverse = True)
  
  return int(sortedClassCount[0][0])

實(shí)現(xiàn)步驟為:讀取一條樣本,轉(zhuǎn)換為向量,計(jì)算這條樣本與輸入樣本的距離,將樣本插入到refSamples數(shù)組中,當(dāng)然這里的樣本只是一個(gè)包含兩個(gè)元素的數(shù)組(距離和類標(biāo)簽),而refSamples數(shù)組用于保存離輸入樣本最近的numOfRefSamples個(gè)參考樣本。當(dāng)所有樣本都讀完之后,就找出了離輸入樣本最近的numOfRefSamples個(gè)參考樣本。其中kNNFunction.insertItem函數(shù)實(shí)現(xiàn)的是將得到的新樣本插入到refSamples數(shù)組中,主要采用類似冒泡排序的方法,實(shí)現(xiàn)代碼如下:

'''
insertItem(refSamples, numOfRefSamples, disAndLabel)函數(shù)
功能:
在參考樣本集中插入新樣本,這里的樣本是一個(gè)包含兩個(gè)數(shù)值的list,第一個(gè)是距離,第二個(gè)是類標(biāo)簽
在參考樣本集中按照距離從小到大排列
參數(shù):
refSamples:參考樣本集
numOfRefSamples:參考樣本集中的樣本總數(shù)
disAndLabel:需要插入的樣本數(shù)
'''
 
def insertItem(refSamples, numOfRefSamples, disAndLabel):
  if (disAndLabel[0] < refSamples[numOfRefSamples - 1][0]) or (refSamples[numOfRefSamples - 1][0] < 0) :
    refSamples[numOfRefSamples - 1] = disAndLabel
    for i in (numpy.array([numOfRefSamples - 2] * (numOfRefSamples - 1)) - numpy.array(range(numOfRefSamples -1))) :
      if (refSamples[i][0] > refSamples[i + 1][0]) or (refSamples[i][0] < 0) :
        tempSample = list(refSamples[i])
        refSamples[i] = refSamples[i + 1]
        refSamples[i + 1] = tempSample
      else :
        break
    return refSamples
  else :
    return refSamples

另外,需要注意的一點(diǎn)是要對輸入樣本的各條屬性進(jìn)行歸一化處理。畢竟不同的屬性的取值范圍不一樣,取值范圍大的屬性在計(jì)算距離的過程中所起到的作用自然就要大一些,所以有必要把所有屬性映射到0和1之間。這就需要計(jì)算每個(gè)屬性的最大值和最小值,方法就是遍歷整個(gè)參考樣本集,找出最大值和最小樣本,這里用dataNorm函數(shù)是實(shí)現(xiàn):

'''
歸一化函數(shù),返回歸一化向量
'''
def dataNorm(trainSetPath = '', lenOfInstance = 42):
  fr = open(trainSetPath)
  strOfLine = fr.readline()                #從文件中讀取的一行字符串
  arrayOfLine = numpy.array([0.] * lenOfInstance)       #用來保存與字符串對應(yīng)的數(shù)組
  maxAttr = numpy.array(['NULL'] * lenOfInstance)       #用來保存每條屬性的最大值
  minAttr = numpy.array(['NULL'] * lenOfInstance)       #用來保存每條屬性的最小值
  
  while strOfLine != '' :
    strOfLine = strOfLine.strip()            #去掉字符串末尾的換行符
    strOfLine = strOfLine.split(';')           #將字符串按逗號分割成字符串?dāng)?shù)組
    
    abandonOrNot = False                 
    for i in range(lenOfInstance) :
      if strOfLine[i] == 'RB' :
        arrayOfLine[i] = 1.0
      elif strOfLine[i] == 'NRB' :
        arrayOfLine[i] = 0.0
      elif strOfLine[i] != '?' :             #沒有發(fā)現(xiàn)缺失值
        arrayOfLine[i] = float(strOfLine[i])     
        abandonOrNot = False
      else :                      #發(fā)現(xiàn)缺失值
        abandonOrNot = True
        break
    
    if abandonOrNot == True :              #存在缺失值,丟棄
      strOfLine = fr.readline()
      continue
    else :                        #沒有缺失值,保留
      if maxAttr[0] == 'NULL' or minAttr[0] == 'NULL' :     #maxAttr和minAttr矩陣是空的
        maxAttr = numpy.array(arrayOfLine)
        minAttr = numpy.array(arrayOfLine)
        strOfLine = fr.readline()
        continue
      for i in range(lenOfInstance) :
        if maxAttr[i] < arrayOfLine[i] :
          maxAttr[i] = float(arrayOfLine[i])
        if minAttr[i] > arrayOfLine[i] :
          minAttr[i] = float(arrayOfLine[i])
      strOfLine = fr.readline()
      continue
    
  return maxAttr, minAttr

至此為止,分類器算是完成,接下去就是用剩下的測試集進(jìn)行測試,計(jì)算分類的準(zhǔn)確度,用kNNTest函數(shù)實(shí)現(xiàn):

def kNNTest(testSetPath = '', trainSetPath = '', lenOfInstance = 42, startAttr = 0, stopAttr = 40, posOfClass = 41):
  fr = open(testSetPath)
  strOfLine = fr.readline()
  arrayOfLine = numpy.array([0.] * lenOfInstance)
  succeedClassify = 0.0
  failedClassify = 0.0
  
  while strOfLine != '' :
    strOfLine = strOfLine.strip()
    strOfLine = strOfLine.split(';')
    
    abandonOrNot = False
    for i in range(lenOfInstance) :
      if strOfLine[i] == 'RB' :
        arrayOfLine[i] = 1.0
      elif strOfLine[i] == 'NRB' :
        arrayOfLine[i] = 0.0
      elif strOfLine[i] != '?' :             #沒有發(fā)現(xiàn)缺失值
        arrayOfLine[i] = float(strOfLine[i])     
        abandonOrNot = False
      else :                      #發(fā)現(xiàn)缺失值
        abandonOrNot = True
        break
    
    if abandonOrNot == True :
      strOfLine = fr.readline()
      continue
    else :
      inputAttr = numpy.array(arrayOfLine)
      classLabel = kNNClassify(inputAttr, trainSetPath = trainSetPath, lenOfInstance = 42, startAttr = startAttr, 
                   stopAttr = stopAttr, posOfClass = posOfClass)
      if classLabel == arrayOfLine[posOfClass] :
        succeedClassify = succeedClassify + 1.0
      else :
        failedClassify = failedClassify + 1.0
      strOfLine = fr.readline()
      
  accuracy = succeedClassify / (succeedClassify + failedClassify)
  return accuracy

最后,進(jìn)行測試:

accuracy = kNN.kNNTest(testSetPath = 'D:\\python_project\\test_data\\QSAR-biodegradation-Data-Set\\biodeg-test.csv', 
            trainSetPath = 'D:\\python_project\\test_data\\QSAR-biodegradation-Data-Set\\biodeg-train.csv', 
            startAttr = 0, stopAttr = 40)
print '分類準(zhǔn)確率為:',accuracy

輸出結(jié)果為:

分類準(zhǔn)確率為: 0.847058823529

可見用kNN這種分類器的對這個(gè)數(shù)據(jù)集的分類效果其實(shí)還是比較一般的,而且根據(jù)我的測試,分類函數(shù)kNNClassify中numOfRefSamples(其實(shí)就是k-近鄰中k)的取值對分類準(zhǔn)確度也有明顯的影響,大概在k取5的時(shí)候,分類效果比較理想,并不是越大越好。下面談?wù)勎覍@個(gè)問題的理解:

首先,kNN算法是一種簡單的分類算法,不需要任何訓(xùn)練過程,在樣本數(shù)據(jù)的結(jié)構(gòu)比較簡單邊界比較明顯的時(shí)候,它的分類效果是比較理想的,比如:

當(dāng)k的取值比較大的時(shí)候,在某些復(fù)雜的邊界下會出現(xiàn)很差的分類效果,比如下面的情況下很多藍(lán)色的類會被分到紅色中,所以要用比較小的k才會有相對較好的分類效果:

但是當(dāng)k取得太小也會使分類效果變差,比如當(dāng)不同類的樣本數(shù)據(jù)之間邊界不明顯,存在交叉的時(shí)候,比如:

總的來說,kNN分類算法是一種比較原始直觀的分類算法,對某些簡單的情況有比較好的分類效果,并且不需要訓(xùn)練模型。但是它的缺點(diǎn)是分類過程的運(yùn)算復(fù)雜度很高,而且當(dāng)樣本數(shù)據(jù)的結(jié)構(gòu)比較復(fù)雜的時(shí)候,它的分類效果不理想。用kNN算法對本次實(shí)驗(yàn)中的數(shù)據(jù)集的分類效果也比較一般,不過我試過其它更簡單一些的數(shù)據(jù)集,確實(shí)還是會有不錯的分類準(zhǔn)確性的,這里就不贅述了。

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • Python isalpha()函數(shù)的具體使用方法詳解

    Python isalpha()函數(shù)的具體使用方法詳解

    這篇文章主要介紹了Python isalpha()函數(shù)的具體使用方法,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-07-07
  • 深入了解python基于tkinter寫的畫圖項(xiàng)目

    深入了解python基于tkinter寫的畫圖項(xiàng)目

    這篇文章主要為大家介紹了python基于tkinter寫的畫圖項(xiàng)目,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來幫助
    2021-12-12
  • python快速排序的實(shí)現(xiàn)及運(yùn)行時(shí)間比較

    python快速排序的實(shí)現(xiàn)及運(yùn)行時(shí)間比較

    這篇文章主要介紹了python快速排序的實(shí)現(xiàn)及運(yùn)行時(shí)間比較,本文通過兩種方法給大家介紹,大家可以根據(jù)自己需要選擇適合自己的方法,對python實(shí)現(xiàn)快速排序相關(guān)知識感興趣的朋友一起看看吧
    2019-11-11
  • python面試題小結(jié)附答案實(shí)例代碼

    python面試題小結(jié)附答案實(shí)例代碼

    這篇文章主要介紹了python面試題小結(jié),本文通過實(shí)例代碼相結(jié)合的形式給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2019-04-04
  • python3 動態(tài)模塊導(dǎo)入與全局變量使用實(shí)例

    python3 動態(tài)模塊導(dǎo)入與全局變量使用實(shí)例

    今天小編就為大家分享一篇python3 動態(tài)模塊導(dǎo)入與全局變量使用實(shí)例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-12-12
  • 將.py文件轉(zhuǎn)化為.exe文件的詳細(xì)過程

    將.py文件轉(zhuǎn)化為.exe文件的詳細(xì)過程

    學(xué)Python那么久了,才知道自己不會把腳本編譯成可執(zhí)行exe文件,下面這篇文章主要給大家介紹了關(guān)于將.py文件轉(zhuǎn)化為.exe文件的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下
    2022-09-09
  • Python中第三方庫Faker的使用詳解

    Python中第三方庫Faker的使用詳解

    在如今的大數(shù)據(jù)時(shí)代,數(shù)據(jù)的價(jià)值可想而知。有時(shí)候?yàn)榱俗鰷y試,需要模擬真實(shí)的環(huán)境,但是又不能直接使用真實(shí)數(shù)據(jù),就需要我們認(rèn)為制造一些數(shù)據(jù)出來。這時(shí)候就要來說說Python這的Faker庫了,快跟隨小編來學(xué)習(xí)一下這個(gè)庫吧
    2022-04-04
  • Python?OpenCV實(shí)現(xiàn)簡單的顏色識別功能(對紅色和藍(lán)色識別并輸出)

    Python?OpenCV實(shí)現(xiàn)簡單的顏色識別功能(對紅色和藍(lán)色識別并輸出)

    Python?OpenCV可以用來進(jìn)行顏色識別,可以通過讀取圖像的像素值,來判斷像素點(diǎn)的顏色,從而實(shí)現(xiàn)顏色識別,這篇文章主要給大家介紹了關(guān)于Python?OpenCV實(shí)現(xiàn)簡單的顏色識別功能(對紅色和藍(lán)色識別并輸出)的相關(guān)資料,需要的朋友可以參考下
    2023-12-12
  • Python 比較文本相似性的方法(difflib,Levenshtein)

    Python 比較文本相似性的方法(difflib,Levenshtein)

    今天小編就為大家分享一篇Python 比較文本相似性的方法(difflib,Levenshtein),具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-10-10
  • python三種數(shù)據(jù)結(jié)構(gòu)及13種創(chuàng)建方法總結(jié)

    python三種數(shù)據(jù)結(jié)構(gòu)及13種創(chuàng)建方法總結(jié)

    拿Python來說,數(shù)據(jù)結(jié)構(gòu)的概念也是超級重要,不同的數(shù)據(jù)結(jié)構(gòu),有著不同的函數(shù),供我們調(diào)用,接下來,我們分別來介紹字符串、列表、字典的創(chuàng)建方法
    2021-09-09

最新評論