pyspark 隨機森林的實現(xiàn)
隨機森林是由許多決策樹構成,是一種有監(jiān)督機器學習方法,可以用于分類和回歸,通過合并匯總來自個體決策樹的結果來進行預測,采用多數(shù)選票作為分類結果,采用預測結果平均值作為回歸結果。
“森林”的概念很好理解,“隨機”是針對森林中的每一顆決策樹,有兩種含義:第一種隨機是數(shù)據(jù)采樣隨機,構建決策樹的訓練數(shù)據(jù)集通過有放回的隨機采樣,并且只會選擇一定百分比的樣本,這樣可以在數(shù)據(jù)集合存在噪聲點、異常點的情況下,有些決策樹的構造過程中不會選擇到這些噪聲點、異常點從而達到一定的泛化作用在一定程度上抑制過擬合;第二種隨機是特征隨機,訓練集會包含一系列特征,隨機選擇一部分特征進行決策樹的構建。通過這些差異點來訓練的每一顆決策樹都會學習輸入與輸出的關系,隨機森林的強大之處也就在于此。
廢話不多說,直接上代碼:
from pyspark import SparkConf
from pyspark.sql import SparkSession
from pyspark.ml.linalg import Vectors
from pyspark.ml.feature import StringIndexer
from pyspark.ml.classification import RandomForestClassifier
from pyspark.sql import Row
import pandas as pd
from sklearn import metrics
if __name__ == "__main__":
appname = "RandomForestClassifier"
master ="local[4]"
conf = SparkConf().setAppName(appname).setMaster(master) #spark配置
spark=SparkSession.builder.config(conf=conf).getOrCreate()#spark實例化
#讀取數(shù)據(jù)
data=spark.read.csv('良惡性乳腺癌數(shù)據(jù).csv',header=True)
#構造訓練數(shù)據(jù)集
dataSet = data.na.fill('0').rdd.map(list)#用0填充空值
trainData, testData= dataSet.randomSplit([0.7, 0.3], seed=7)
trainingSet = trainData.map(lambda x:Row(label=x[-1], features=Vectors.dense(x[:-1]))).toDF()
train_num = trainingSet.count()
print("訓練樣本數(shù):{}".format(train_num))
#使用隨機森林進行訓練
stringIndexer = StringIndexer(inputCol="label", outputCol="indexed")
si_model = stringIndexer.fit(trainingSet)
train_tf = si_model.transform(trainingSet)
train_tf.show(5)
rf = RandomForestClassifier(numTrees=100, labelCol="indexed", seed=7)
rfModel = rf.fit(train_tf)
#輸出模型特征重要性、子樹權重
print("模型特征重要性:{}".format(rfModel.featureImportances))
print("模型特征數(shù):{}".format(rfModel.numFeatures))
#預測測試集
testSet = testData.map(lambda x:Row(label=x[-1], features=Vectors.dense(x[:-1]))).toDF()
test_num=testSet.count()
print("測試樣本數(shù):{}".format(test_num))
si_model = stringIndexer.fit(testSet)
test_tf = si_model.transform(testSet)
predictResult = rfModel.transform(test_tf)
predictResult.show(5)
spark.stop()
#將預測結果轉(zhuǎn)為python中的dataframe
columns=predictResult.columns#提取強表字段
predictResult=predictResult.take(test_num)#
predictResult=pd.DataFrame(predictResult,columns=columns)#轉(zhuǎn)為python中的dataframe
#性能評估
y=list(predictResult['indexed'])
y_pred=list(predictResult['prediction'])
y_predprob=[x[1] for x in list(predictResult['probability'])]
precision_score=metrics.precision_score(y, y_pred)#精確率
recall_score=metrics.recall_score(y, y_pred)#召回率
accuracy_score=metrics.accuracy_score(y, y_pred)#準確率
f1_score=metrics.f1_score(y, y_pred)#F1分數(shù)
auc_score=metrics.roc_auc_score(y, y_predprob)#auc分數(shù)
print("精確率:",precision_score )#精確率
print("召回率:",recall_score )#召回率
print("準確率:",accuracy_score )#準確率
print("F1分數(shù):", f1_score)#F1分數(shù)
print("auc分數(shù):",auc_score )#auc分數(shù)
運行結果:

到此這篇關于pyspark 隨機森林的實現(xiàn)的文章就介紹到這了,更多相關pyspark 隨機森林內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
Python打包后的exe還原成.py的實現(xiàn)步驟
本文主要介紹了Python打包后的exe還原成.py的實現(xiàn)步驟,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2023-02-02
Python unittest單元測試框架實現(xiàn)參數(shù)化
這篇文章主要介紹了Python unittest單元測試框架實現(xiàn)參數(shù)化,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-04-04
numpy庫與pandas庫axis=0,axis= 1軸的用法詳解
這篇文章主要介紹了numpy庫與pandas庫axis=0,axis= 1軸的用法詳解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2019-05-05

