欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python決策樹預(yù)測(cè)學(xué)生成績(jī)等級(jí)實(shí)現(xiàn)詳情

 更新時(shí)間:2022年04月25日 16:04:58   作者:極客范兒  
這篇文章主要為介紹了python決策樹預(yù)測(cè)學(xué)生成績(jī)等級(jí),使用決策樹完成學(xué)生成績(jī)等級(jí)預(yù)測(cè),可選取部分或全部特征,分析參數(shù)對(duì)結(jié)果的影響,并進(jìn)行調(diào)參優(yōu)化,決策樹可視化進(jìn)行調(diào)參優(yōu)化分析

1.數(shù)據(jù)準(zhǔn)備

1.1 引入頭文件

stu-001

寫入頭文件之前,需要下載安裝所必須的依賴包。有的無法使用pip安裝的內(nèi)容,使用手動(dòng)導(dǎo)入依賴的方式.

1.2 把student_1.csv數(shù)據(jù)拖入代碼的同一文件夾下,同時(shí)讀取文件中的數(shù)據(jù)

stu-002

1.3 特征選取

課件中選取16個(gè)特征值,這里我采用了所有的特征值進(jìn)行處理。

stu-003

2.數(shù)據(jù)處理

2.1 對(duì)G1、G2、G3處理

對(duì)于離散值進(jìn)行連續(xù)處理,同時(shí)設(shè)置lambda函數(shù)計(jì)算G1、G2、G3。

stu-004

2.2 同樣對(duì)Pedu參數(shù)進(jìn)行連續(xù)值處理

stu-005

2.3 由于數(shù)據(jù)集中每個(gè)參數(shù)差異比較大,所以這里把特征參數(shù)統(tǒng)一改為數(shù)字形式

stu-006

2.4 對(duì)于當(dāng)前處理過的數(shù)據(jù)集,劃分訓(xùn)練集和測(cè)試集,并設(shè)置好隨機(jī)種子等其他參數(shù)

stu-007

3.訓(xùn)練得到的模型

3.1 決策樹

3.1.1 開始對(duì)訓(xùn)練集中的數(shù)據(jù)進(jìn)行訓(xùn)練

stu-008

訓(xùn)練完的模型用來設(shè)置圖像參數(shù)進(jìn)行可視化展現(xiàn)。

stu-009

3.1.2 利用已經(jīng)訓(xùn)練好的模型來預(yù)測(cè)G3的值

stu-010

對(duì)訓(xùn)練好的模型進(jìn)行打分。

stu-011

3.1.3 對(duì)模型中的參數(shù)進(jìn)行優(yōu)化,輸出優(yōu)化后最好的分?jǐn)?shù)

stu-012

3.1.4 優(yōu)化后的模型來繪制決策樹

stu-013

輸出優(yōu)化后的分?jǐn)?shù)。

stu-014

3.2 集成學(xué)習(xí)

重新劃分?jǐn)?shù)據(jù)集用于訓(xùn)練模型。

stu-015

3.2.1 Decision Tree

這里采用集成學(xué)習(xí)的多個(gè)決策樹方式進(jìn)行訓(xùn)練模型,以及模型的評(píng)估。

stu-016

3.2.2 Bagging算法

這里采用集成學(xué)習(xí)的Bagging算法進(jìn)行訓(xùn)練模型,對(duì)模型做出分?jǐn)?shù)估測(cè)。

stu-017

3.2.3 這里采用集成學(xué)習(xí)的Random Forest算法進(jìn)行訓(xùn)練模型,對(duì)模型做出分?jǐn)?shù)估測(cè)

stu-018

3.2.4 這里采用集成學(xué)習(xí)的AdaBoost算法進(jìn)行訓(xùn)練模型,對(duì)模型做出分?jǐn)?shù)估測(cè)

stu-019

3.2.5 這里采用集成學(xué)習(xí)的GBDT算法進(jìn)行訓(xùn)練模型,對(duì)模型做出分?jǐn)?shù)估測(cè)

stu-020

4.評(píng)價(jià)結(jié)果:

模型得分
決策樹(優(yōu)化前)0.806
決策樹(優(yōu)化后)0.848
多個(gè)決策樹0.831
Bagging0.890
Random Forest0.882
AdaBoost0.806
GBDT0.865

5.結(jié)論分析

根據(jù)決策樹和集成學(xué)習(xí)兩大類的訓(xùn)練模型可以看出:兩種方式實(shí)現(xiàn)各有千秋,同樣由優(yōu)缺點(diǎn)。

決策樹在優(yōu)化參數(shù)前后預(yù)測(cè)結(jié)果有了較明顯的提升,并且有可視化的圖片便于觀察。集成學(xué)習(xí)中的Bagging算法對(duì)于預(yù)測(cè)結(jié)果是最好的,隨之的得分情況也是最高。但是AdaBoost算法的表現(xiàn)就相對(duì)不夠。

以上就是python決策樹預(yù)測(cè)學(xué)生成績(jī)等級(jí)實(shí)現(xiàn)詳情的詳細(xì)內(nèi)容,更多關(guān)于python決策樹預(yù)測(cè)學(xué)生成績(jī)等級(jí)的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

最新評(píng)論