python實(shí)現(xiàn)決策樹(shù)C4.5算法詳解(在ID3基礎(chǔ)上改進(jìn))
一、概論
C4.5主要是在ID3的基礎(chǔ)上改進(jìn),ID3選擇(屬性)樹(shù)節(jié)點(diǎn)是選擇信息增益值最大的屬性作為節(jié)點(diǎn)。而C4.5引入了新概念“信息增益率”,C4.5是選擇信息增益率最大的屬性作為樹(shù)節(jié)點(diǎn)。
二、信息增益

以上公式是求信息增益率(ID3的知識(shí)點(diǎn))
三、信息增益率

信息增益率是在求出信息增益值在除以
。
例如下面公式為求屬性為“outlook”的
值:

四、C4.5的完整代碼
from numpy import *
from scipy import *
from math import log
import operator
#計(jì)算給定數(shù)據(jù)的香濃熵:
def calcShannonEnt(dataSet):
numEntries = len(dataSet)
labelCounts = {} #類別字典(類別的名稱為鍵,該類別的個(gè)數(shù)為值)
for featVec in dataSet:
currentLabel = featVec[-1]
if currentLabel not in labelCounts.keys(): #還沒(méi)添加到字典里的類型
labelCounts[currentLabel] = 0;
labelCounts[currentLabel] += 1;
shannonEnt = 0.0
for key in labelCounts: #求出每種類型的熵
prob = float(labelCounts[key])/numEntries #每種類型個(gè)數(shù)占所有的比值
shannonEnt -= prob * log(prob, 2)
return shannonEnt; #返回熵
#按照給定的特征劃分?jǐn)?shù)據(jù)集
def splitDataSet(dataSet, axis, value):
retDataSet = []
for featVec in dataSet: #按dataSet矩陣中的第axis列的值等于value的分?jǐn)?shù)據(jù)集
if featVec[axis] == value: #值等于value的,每一行為新的列表(去除第axis個(gè)數(shù)據(jù))
reducedFeatVec = featVec[:axis]
reducedFeatVec.extend(featVec[axis+1:])
retDataSet.append(reducedFeatVec)
return retDataSet #返回分類后的新矩陣
#選擇最好的數(shù)據(jù)集劃分方式
def chooseBestFeatureToSplit(dataSet):
numFeatures = len(dataSet[0])-1 #求屬性的個(gè)數(shù)
baseEntropy = calcShannonEnt(dataSet)
bestInfoGain = 0.0; bestFeature = -1
for i in range(numFeatures): #求所有屬性的信息增益
featList = [example[i] for example in dataSet]
uniqueVals = set(featList) #第i列屬性的取值(不同值)數(shù)集合
newEntropy = 0.0
splitInfo = 0.0;
for value in uniqueVals: #求第i列屬性每個(gè)不同值的熵*他們的概率
subDataSet = splitDataSet(dataSet, i , value)
prob = len(subDataSet)/float(len(dataSet)) #求出該值在i列屬性中的概率
newEntropy += prob * calcShannonEnt(subDataSet) #求i列屬性各值對(duì)于的熵求和
splitInfo -= prob * log(prob, 2);
infoGain = (baseEntropy - newEntropy) / splitInfo; #求出第i列屬性的信息增益率
print infoGain;
if(infoGain > bestInfoGain): #保存信息增益率最大的信息增益率值以及所在的下表(列值i)
bestInfoGain = infoGain
bestFeature = i
return bestFeature
#找出出現(xiàn)次數(shù)最多的分類名稱
def majorityCnt(classList):
classCount = {}
for vote in classList:
if vote not in classCount.keys(): classCount[vote] = 0
classCount[vote] += 1
sortedClassCount = sorted(classCount.iteritems(), key = operator.itemgetter(1), reverse=True)
return sortedClassCount[0][0]
#創(chuàng)建樹(shù)
def createTree(dataSet, labels):
classList = [example[-1] for example in dataSet]; #創(chuàng)建需要?jiǎng)?chuàng)建樹(shù)的訓(xùn)練數(shù)據(jù)的結(jié)果列表(例如最外層的列表是[N, N, Y, Y, Y, N, Y])
if classList.count(classList[0]) == len(classList): #如果所有的訓(xùn)練數(shù)據(jù)都是屬于一個(gè)類別,則返回該類別
return classList[0];
if (len(dataSet[0]) == 1): #訓(xùn)練數(shù)據(jù)只給出類別數(shù)據(jù)(沒(méi)給任何屬性值數(shù)據(jù)),返回出現(xiàn)次數(shù)最多的分類名稱
return majorityCnt(classList);
bestFeat = chooseBestFeatureToSplit(dataSet); #選擇信息增益最大的屬性進(jìn)行分(返回值是屬性類型列表的下標(biāo))
bestFeatLabel = labels[bestFeat] #根據(jù)下表找屬性名稱當(dāng)樹(shù)的根節(jié)點(diǎn)
myTree = {bestFeatLabel:{}} #以bestFeatLabel為根節(jié)點(diǎn)建一個(gè)空樹(shù)
del(labels[bestFeat]) #從屬性列表中刪掉已經(jīng)被選出來(lái)當(dāng)根節(jié)點(diǎn)的屬性
featValues = [example[bestFeat] for example in dataSet] #找出該屬性所有訓(xùn)練數(shù)據(jù)的值(創(chuàng)建列表)
uniqueVals = set(featValues) #求出該屬性的所有值得集合(集合的元素不能重復(fù))
for value in uniqueVals: #根據(jù)該屬性的值求樹(shù)的各個(gè)分支
subLabels = labels[:]
myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), subLabels) #根據(jù)各個(gè)分支遞歸創(chuàng)建樹(shù)
return myTree #生成的樹(shù)
#實(shí)用決策樹(shù)進(jìn)行分類
def classify(inputTree, featLabels, testVec):
firstStr = inputTree.keys()[0]
secondDict = inputTree[firstStr]
featIndex = featLabels.index(firstStr)
for key in secondDict.keys():
if testVec[featIndex] == key:
if type(secondDict[key]).__name__ == 'dict':
classLabel = classify(secondDict[key], featLabels, testVec)
else: classLabel = secondDict[key]
return classLabel
#讀取數(shù)據(jù)文檔中的訓(xùn)練數(shù)據(jù)(生成二維列表)
def createTrainData():
lines_set = open('../data/ID3/Dataset.txt').readlines()
labelLine = lines_set[2];
labels = labelLine.strip().split()
lines_set = lines_set[4:11]
dataSet = [];
for line in lines_set:
data = line.split();
dataSet.append(data);
return dataSet, labels
#讀取數(shù)據(jù)文檔中的測(cè)試數(shù)據(jù)(生成二維列表)
def createTestData():
lines_set = open('../data/ID3/Dataset.txt').readlines()
lines_set = lines_set[15:22]
dataSet = [];
for line in lines_set:
data = line.strip().split();
dataSet.append(data);
return dataSet
myDat, labels = createTrainData()
myTree = createTree(myDat,labels)
print myTree
bootList = ['outlook','temperature', 'humidity', 'windy'];
testList = createTestData();
for testData in testList:
dic = classify(myTree, bootList, testData)
print dic
五、C4.5與ID3的代碼區(qū)別

如上圖,C4.5主要在第52、53行代碼與ID3不同(ID3求的是信息增益,C4.5求的是信息增益率)。
六、訓(xùn)練、測(cè)試數(shù)據(jù)集樣例
訓(xùn)練集: outlook temperature humidity windy --------------------------------------------------------- sunny hot high false N sunny hot high true N overcast hot high false Y rain mild high false Y rain cool normal false Y rain cool normal true N overcast cool normal true Y 測(cè)試集 outlook temperature humidity windy ----------------------------------------------- sunny mild high false sunny cool normal false rain mild normal false sunny mild normal true overcast mild high true overcast hot normal false rain mild high true
以上這篇python實(shí)現(xiàn)決策樹(shù)C4.5算法詳解(在ID3基礎(chǔ)上改進(jìn))就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- python實(shí)現(xiàn)ID3決策樹(shù)算法
- python實(shí)現(xiàn)C4.5決策樹(shù)算法
- Python實(shí)現(xiàn)決策樹(shù)C4.5算法的示例
- python實(shí)現(xiàn)決策樹(shù)ID3算法的示例代碼
- Python決策樹(shù)和隨機(jī)森林算法實(shí)例詳解
- Python決策樹(shù)分類算法學(xué)習(xí)
- Python機(jī)器學(xué)習(xí)之決策樹(shù)算法
- python實(shí)現(xiàn)決策樹(shù)分類算法
- python代碼實(shí)現(xiàn)ID3決策樹(shù)算法
- python決策樹(shù)之C4.5算法詳解
- python實(shí)現(xiàn)ID3決策樹(shù)算法
- Python機(jī)器學(xué)習(xí)之決策樹(shù)算法實(shí)例詳解
- 基于ID3決策樹(shù)算法的實(shí)現(xiàn)(Python版)
- 解讀python如何實(shí)現(xiàn)決策樹(shù)算法
相關(guān)文章
Python3爬蟲(chóng)中關(guān)于Ajax分析方法的總結(jié)
在本篇文章里小編給大家整理的是一篇關(guān)于Python3爬蟲(chóng)中關(guān)于Ajax分析方法的總結(jié),需要的朋友們可以學(xué)習(xí)下。2020-07-07
python 刪除指定時(shí)間間隔之前的文件實(shí)例
下面小編就為大家分享一篇python 刪除指定時(shí)間間隔之前的文件實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-04-04
虛擬環(huán)境及venv和virtualenv的區(qū)別說(shuō)明
這篇文章主要介紹了虛擬環(huán)境及venv和virtualenv的區(qū)別說(shuō)明,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-02-02
Pytorch固定隨機(jī)數(shù)種子的方法小結(jié)
在對(duì)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練時(shí),有時(shí)候會(huì)存在對(duì)訓(xùn)練過(guò)程進(jìn)行復(fù)現(xiàn)的需求,然而,每次運(yùn)行時(shí) Pytorch、Numpy 中的隨機(jī)性將使得該目的變得困難重重,基于此,本文記錄了 Pytorch 中的固定隨機(jī)數(shù)種子的方法,需要的朋友可以參考下2023-12-12
解決python通過(guò)cx_Oracle模塊連接Oracle亂碼的問(wèn)題
今天小編就為大家分享一篇解決python通過(guò)cx_Oracle模塊連接Oracle亂碼的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-10-10
python實(shí)現(xiàn)提取jira bug列表的方法示例
公司要求內(nèi)部每日整理jira bug發(fā)郵件,手動(dòng)執(zhí)行了一段時(shí)間,想著用自動(dòng)化的方式實(shí)現(xiàn),所以本文主要介紹了python實(shí)現(xiàn)提取jira bug列表,感興趣的可以了解一下2021-05-05
Python的Django框架中模板碎片緩存簡(jiǎn)介
這篇文章主要介紹了Python的Django框架中模板碎片緩存,包括給cache標(biāo)簽傳遞參數(shù)等方法,需要的朋友可以參考下2015-07-07

