欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python機(jī)器學(xué)習(xí)實(shí)現(xiàn)oneR算法(以鳶尾data為例)

 更新時(shí)間:2022年03月03日 10:38:52   作者:侯小啾  
本文主要介紹了python機(jī)器學(xué)習(xí)實(shí)現(xiàn)oneR算法(以鳶尾data為例),文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下

oneR即“一條規(guī)則”。oneR算法根據(jù)已有的數(shù)據(jù)中,具有相同特征值的個(gè)體最可能屬于哪個(gè)類別來進(jìn)行分類。
以鳶尾data為例,該算法實(shí)現(xiàn)過程可解讀為以下六步:

一、 導(dǎo)包與獲取數(shù)據(jù)

以均值為閾值,將大于或等于閾值的特征標(biāo)記為1,低于閾值的特征標(biāo)記為0。

import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.datasets import load_iris
from collections import defaultdict
from operator import itemgetter
import warnings
from sklearn.metrics import classification_report

# 加載內(nèi)置iris數(shù)據(jù),并保存
dataset = load_iris()  
X = dataset.data
y = dataset.target

attribute_means = X.mean(axis=0)  # 得到一個(gè)列表,列表元素個(gè)數(shù)為特征值個(gè)數(shù),列表值為每個(gè)特征的均值
X_d = np.array(X >= attribute_means, dtype='int')  # 轉(zhuǎn)bool類型

數(shù)據(jù)到此已獲取完畢,接下來將其劃分為訓(xùn)練集和測(cè)試集。

二、劃分為訓(xùn)練集和測(cè)試集

使用默認(rèn)的0.25作為分割比例。即訓(xùn)練集:測(cè)試集=3:1。

X_train, X_test, y_train, y_test = train_test_split(X_d, y, random_state=random_state)

數(shù)據(jù)描述:
本例中共有四個(gè)特征,
原數(shù)據(jù)集有150個(gè)樣本,分割后訓(xùn)練集有112個(gè)數(shù)據(jù),測(cè)試集有38個(gè)數(shù)據(jù)。
標(biāo)簽一共分為三類,取值可以是0,1,2。

三、定義函數(shù):獲取某特征值出現(xiàn)次數(shù)最多的類別及錯(cuò)誤率

首先遍歷特征的每一個(gè)取值,對(duì)于每一個(gè)特征值,統(tǒng)計(jì)它在各個(gè)類別中出現(xiàn)的次數(shù)。
定義一個(gè)函數(shù),有以下四個(gè)參數(shù):

  • X, y_true即 訓(xùn)練集數(shù)據(jù)和標(biāo)簽
  • feature是特征的索引值,可以是0,1,2,3。
  • value是特征可以有的取值,這里為0,1。

該函數(shù)的意義在于,對(duì)于訓(xùn)練集數(shù)據(jù),對(duì)于某個(gè)特征,依次遍歷樣本在該特征的真實(shí)取值,判斷其是否等于特征的某個(gè)可以有的取值 (即value)(以0為例)。如果判定成功,則在字典class_counts中記錄,以三個(gè)類別(0,1,2)中該樣本對(duì)應(yīng)的類別為鍵值,表示該類別出現(xiàn)的次數(shù)加一。

首先得到的字典(class_counts)形如:
{0: x1, 1.0: x2, 2.0:x3}
其中元素不一定是三個(gè)
x1:類別0中,某個(gè)特征feature的特征值為value(0或1)出現(xiàn)的次數(shù)
x2:類別0中,某個(gè)特征feature的特征值為value(0或1)出現(xiàn)的次數(shù)
x3:類別0中,某個(gè)特征feature的特征值為value(0或1)出現(xiàn)的次數(shù)

然后將class_counts按照值的大小排序,取出指定特征的特征值出現(xiàn)次數(shù)最多的類別:most_frequent_class。
該規(guī)則即為:該特征的該特征值出現(xiàn)在其出現(xiàn)次數(shù)最多的類別上是合理的,出現(xiàn)在其它類別上是錯(cuò)誤的。

最后計(jì)算該規(guī)則的錯(cuò)誤率:error
錯(cuò)誤率具有該特征的個(gè)體在除出現(xiàn)次數(shù)最多的類別出現(xiàn)的次數(shù),代表分類規(guī)則不適用的個(gè)體的數(shù)量

最后返回待預(yù)測(cè)的個(gè)體類別錯(cuò)誤率

def train_feature_value(X, y_true, feature, value):
    class_counts = defaultdict(int)
    for sample, y_t in zip(X, y_true):
        if sample[feature] == value:
            class_counts[y_t] += 1
    sorted_class_counts = sorted(class_counts.items(), key=itemgetter(1), reverse=True) # 降序
    most_frequent_class = sorted_class_counts[0][0]
    error = sum([class_count for class_value, class_count in class_counts.items()
                 if class_value != most_frequent_class])
    return most_frequent_class, error

返回值most_frequent_class是一個(gè)字典, error是一個(gè)數(shù)字

四、定義函數(shù):獲取每個(gè)特征值下出現(xiàn)次數(shù)最多的類別、錯(cuò)誤率

def train(X, y_true, feature):
    n_samples, n_features = X.shape
    assert 0 <= feature < n_features
    # 獲取樣本中某特征所有可能的取值
    values = set(X[:, feature])
    predictors = dict()
    errors = []
    for current_value in values:
        most_frequent_class, error = train_feature_value(X, y_true, feature, current_value)
        predictors[current_value] = most_frequent_class
        errors.append(error)
    total_error = sum(errors)
    return predictors, total_error

因?yàn)閙ost_frequent_class是一個(gè)字典,所以predictors是一個(gè)鍵為特征可以的取值(0和1),值為字典most_frequent_class的 字典。
total_error是一個(gè)數(shù)字,為每個(gè)特征值下的錯(cuò)誤率的和。

五、調(diào)用函數(shù),獲取最佳特征值

all_predictors = {variable: train(X_train, y_train, variable) for variable in range(X_train.shape[1])}
Errors = {variable: error for variable, (mapping, error) in all_predictors.items()}
# 找到錯(cuò)誤率最低的特征
best_variable, best_error = sorted(Errors.items(), key=itemgetter(1))[0]  # 升序
print("The best model is based on feature {0} and has error {1:.2f}".format(best_variable, best_error))
# 找到最佳特征值,創(chuàng)建model模型
model = {'variable': best_variable,
         'predictor': all_predictors[best_variable][0]}
print(model)

在這里插入圖片描述

根據(jù)代碼運(yùn)行結(jié)果,最佳特征值是特征2(索引值為2的feature,即第三個(gè)特征)。

對(duì)于初學(xué)者這里的代碼邏輯比較復(fù)雜,可以對(duì)變量進(jìn)行逐個(gè)打印查看,閱讀blog學(xué)習(xí)時(shí)要盯準(zhǔn)字眼,細(xì)品其邏輯。

print(all_predictors)
print(all_predictors[best_variable])
print(all_predictors[best_variable][0])

在這里插入圖片描述

六、測(cè)試算法

定義預(yù)測(cè)函數(shù),對(duì)測(cè)試集數(shù)據(jù)進(jìn)行預(yù)測(cè)

def predict(X_test, model):
    variable = model['variable']
    predictor = model['predictor']
    y_predicted = np.array([predictor[int(sample[variable])] for sample in X_test])
    return y_predicted

# 對(duì)測(cè)試集數(shù)據(jù)進(jìn)行預(yù)測(cè)
y_predicted = predict(X_test, model)
print(y_predicted)

預(yù)測(cè)結(jié)果:

在這里插入圖片描述

# 統(tǒng)計(jì)預(yù)測(cè)準(zhǔn)確率
accuracy = np.mean(y_predicted == y_test) * 100
print("The test accuracy is {:.1f}%".format(accuracy))

在這里插入圖片描述

根據(jù)打印結(jié)果,該模型預(yù)測(cè)的準(zhǔn)確率可達(dá)65.8%,對(duì)于只有一條規(guī)則的oneR算法而言,結(jié)果是比較良好的。到此便實(shí)現(xiàn)了oneR算法的一次完整應(yīng)用。

最后,還可以使用classification_report()方法,傳入測(cè)試集的真實(shí)值和預(yù)測(cè)值,打印出模型評(píng)估報(bào)告。

# 屏蔽警告
warnings.filterwarnings("ignore") 
# 打印模型評(píng)估報(bào)告
print(classification_report(y_test, y_predicted))  # 參數(shù)為測(cè)試集的真實(shí)數(shù)據(jù)和預(yù)測(cè)數(shù)據(jù)

在這里插入圖片描述

 到此這篇關(guān)于python機(jī)器學(xué)習(xí)實(shí)現(xiàn)oneR算法(以鳶尾data為例)的文章就介紹到這了,更多相關(guān)python oneR算法內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • pytorch的batch normalize使用詳解

    pytorch的batch normalize使用詳解

    今天小編就為大家分享一篇pytorch的batch normalize使用詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧
    2020-01-01
  • Python數(shù)據(jù)結(jié)構(gòu)與算法中的棧詳解

    Python數(shù)據(jù)結(jié)構(gòu)與算法中的棧詳解

    這篇文章主要為大家詳細(xì)介紹了Python數(shù)據(jù)結(jié)構(gòu)與算法中的棧,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來幫助
    2022-03-03
  • python簡單實(shí)現(xiàn)插入排序?qū)嵗a

    python簡單實(shí)現(xiàn)插入排序?qū)嵗a

    在本篇文章里小編給大家整理了一篇關(guān)于python簡單實(shí)現(xiàn)插入排序?qū)嵗a,有需要的朋友們可以學(xué)習(xí)參考下。
    2020-12-12
  • Python機(jī)器學(xué)習(xí)多層感知機(jī)原理解析

    Python機(jī)器學(xué)習(xí)多層感知機(jī)原理解析

    最簡單的深度網(wǎng)絡(luò)稱為多層感知機(jī),它們由多層神經(jīng)元組成,每一層都與下面一層(從中接收輸入)和上面一層(反過來影響當(dāng)前層的神經(jīng)元)完全相連
    2021-10-10
  • Python?操作?MongoDB數(shù)據(jù)庫的方法(非?ODM)

    Python?操作?MongoDB數(shù)據(jù)庫的方法(非?ODM)

    這篇文章主要介紹了Python?操作?MongoDB?----非?ODM的方法,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2023-03-03
  • 利用Python yagmail三行代碼實(shí)現(xiàn)發(fā)送郵件

    利用Python yagmail三行代碼實(shí)現(xiàn)發(fā)送郵件

    這篇文章主要給大家介紹了關(guān)于利用Python yagmail三行代碼實(shí)現(xiàn)發(fā)送郵件的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2018-05-05
  • python中數(shù)據(jù)爬蟲requests庫使用方法詳解

    python中數(shù)據(jù)爬蟲requests庫使用方法詳解

    本篇文章主要介紹了python中數(shù)據(jù)爬蟲requests庫使用方法詳解,小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧
    2018-02-02
  • Python 共享變量加鎖、釋放詳解

    Python 共享變量加鎖、釋放詳解

    這篇文章主要介紹了Python 共享變量加鎖、釋放詳解,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-08-08
  • Python實(shí)現(xiàn)的微信公眾號(hào)群發(fā)圖片與文本消息功能實(shí)例詳解

    Python實(shí)現(xiàn)的微信公眾號(hào)群發(fā)圖片與文本消息功能實(shí)例詳解

    這篇文章主要介紹了Python實(shí)現(xiàn)的微信公眾號(hào)群發(fā)圖片與文本消息功能,結(jié)合實(shí)例形式詳細(xì)分析了Python調(diào)用微信接口實(shí)現(xiàn)微信公眾號(hào)群發(fā)圖片與文本消息的具體操作步驟與相關(guān)注意事項(xiàng),需要的朋友可以參考下
    2017-06-06
  • Python實(shí)現(xiàn)將n個(gè)點(diǎn)均勻地分布在球面上的方法

    Python實(shí)現(xiàn)將n個(gè)點(diǎn)均勻地分布在球面上的方法

    這篇文章主要介紹了Python實(shí)現(xiàn)將n個(gè)點(diǎn)均勻地分布在球面上的方法,涉及Python繪圖的技巧與相關(guān)數(shù)學(xué)函數(shù)的調(diào)用,具有一定參考借鑒價(jià)值,需要的朋友可以參考下
    2015-03-03

最新評(píng)論