欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python基于TensorFlow接口實現(xiàn)深度學習神經(jīng)網(wǎng)絡回歸

 更新時間:2023年02月17日 14:15:46   作者:瘋狂學習GIS  
這篇文章主要為大家詳細介紹了如何基于Python語言中TensorFlow的tf.estimator接口,實現(xiàn)深度學習神經(jīng)網(wǎng)絡回歸的具體方法,感興趣的可以了解一下

1 寫在前面

1. 本文介紹的是基于TensorFlow tf.estimator接口的深度學習網(wǎng)絡,而非TensorFlow 2.0中常用的Keras接口;關于Keras接口實現(xiàn)深度學習回歸,我們將在下一篇博客中介紹。

2. 本文代碼以DNNRegressor回歸為例;而由于基于 tf.estimator接口的深度學習回歸分類整體較為類似,因此二者具有觸類旁通的效果。

3. 本文第二部分為代碼的分解介紹,第三部分為完整代碼。

4. 相關版本信息:

  • Python版本:3.8.5;
  • TensorFlow版本:2.4.1;
  • 編譯器版本:Spyder 4.1.5。

2 代碼分解介紹

2.1 準備工作

首先需要引入相關的庫與包。

import os
import openpyxl
import numpy as np
import pandas as pd
import tensorflow as tf
import scipy.stats as stats
import matplotlib.pyplot as plt
from sklearn import metrics
from sklearn.model_selection import train_test_split

其次,基于TensorFlow的代碼往往會輸出較多的日志信息,從而使得我們對代碼執(zhí)行情況的了解受到一定影響。代碼輸出的日志信息有四種,依據(jù)嚴重程度由低到高排序:INFO(通知)<WARNING(警告)<ERROR(錯誤)<FATAL(致命的);我們可以通過如下代碼來對TensorFlow的輸出日志信息加以約束。

os.environ['TF_CPP_MIN_LOG_LEVEL']='3'

其中,3代表只輸出FATAL信息。但要注意,這句代碼需要放在import tensorflow的前面:

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='3'
import openpyxl
import numpy as np
import pandas as pd
import tensorflow as tf
import scipy.stats as stats
import matplotlib.pyplot as plt
from sklearn import metrics
from sklearn.model_selection import train_test_split

2.2 參數(shù)配置

深度學習代碼一大特點即為具有較多的參數(shù)需要我們手動定義。為避免調(diào)參時上下翻找,我們可以將主要的參數(shù)集中在一起,方便我們后期調(diào)整。

其中,具體參數(shù)的含義在本文后續(xù)部分詳細介紹。

# 將各類變量放在一個位置集中定義,十分有利于機器學習等變量較多的代碼
MyModelPath="G:/CropYield/03_DL/02_DNNModle" # 確定每一次訓練所得模型保存的位置
MyDataPath="G:/CropYield/03_DL/00_Data/AllDataAll.csv" # 確定輸入數(shù)據(jù)的位置
MyResultSavePath="G:/CropYield/03_DL/03_OtherResult/EvalResult54.xlsx" # 確定模型精度結(jié)果(RMSE等)與模型參數(shù)保存的位置
TestSize=0.2 # 確定數(shù)據(jù)中測試集所占比例
RandomSeed=np.random.randint(low=24,high=25) # 確定劃分訓練集與測試集的隨機數(shù)種子
OptMethod='Adam' # 確定模型所用的優(yōu)化方法
LearningRate=0.01 # 確定學習率
DecayStep=200 # 確定學習率下降的步數(shù)
DecayRate=0.96 # 確定學習率下降比率
HiddenLayer=[64,128] # 確定隱藏層數(shù)量與每一層對應的神經(jīng)元數(shù)量
ActFun='tf.nn.relu' # 確定激活函數(shù)
Dropout=0.3 # 確定Dropout的值
LossReduction='tf.compat.v1.ReductionV2.SUM_OVER_BATCH_SIZE' # 指定每個批次訓練誤差的減小方法
BatchNorm='False' # 確定是否使用Batch Normalizing
TrainBatchSize=110 # 確定訓練數(shù)據(jù)一個Batch的大小
TrainStep=3000 # 確定訓練數(shù)據(jù)的Step數(shù)量
EvalBatchSize=1 # 確定驗證數(shù)據(jù)一個Batch的大小
PredictBatchSize=1 # 確定預測數(shù)據(jù)(即測試集)一個Batch的大小

2.3 原有模型刪除

DNNRegressor每執(zhí)行一次,便會在指定路徑中保存當前運行的模型。為保證下一次模型保存時不受上一次模型運行結(jié)果干擾,我們可以將模型文件夾內(nèi)的全部文件刪除。

# DeleteOldModel函數(shù),刪除上一次運行所保存的模型
def DeleteOldModel(ModelPath):
    AllFileName=os.listdir(ModelPath) # 獲取ModelPath路徑下全部文件與文件夾
    for i in AllFileName:
        NewPath=os.path.join(ModelPath,i) # 分別將所獲取的文件或文件夾名稱與ModelPath路徑組合
        if os.path.isdir(NewPath): # 若組合后的新路徑是一個文件夾
            DeleteOldModel(NewPath) # 遞歸調(diào)用DeleteOldModel函數(shù)
        else:
            os.remove(NewPath) # 若不是一個新的文件夾,而是一個文件,那么就刪除

# 調(diào)用DeleteOldModel函數(shù),刪除上一次運行所保存的模型
DeleteOldModel(MyModelPath)

需要注意,以上代碼僅刪除指定路徑下的文件,文件夾不刪除。大家如果需要將文件夾也同時刪除,修改以上代碼函數(shù)中的后面幾句即可。

2.4 數(shù)據(jù)導入與數(shù)據(jù)劃分

我的數(shù)據(jù)已經(jīng)保存在了.csv文件中,因此可以用pd.read_csv直接讀取。

其中,數(shù)據(jù)的每一列是一個特征,每一行是全部特征與因變量(就是下面的Yield)組合成的樣本。

# LoadData函數(shù),加載全部數(shù)據(jù)
def LoadData(DataPath):
    MyData=pd.read_csv(DataPath,names=['EVI0610','EVI0626','EVI0712','EVI0728','EVI0813','EVI0829',
                                       'EVI0914','EVI0930','EVI1016','Lrad06','Lrad07','Lrad08',
                                       'Lrad09','Lrad10','Prec06','Prec07','Prec08','Prec09',
                                       'Prec10','Pres06','Pres07','Pres08','Pres09','Pres10',
                                       'SIF161','SIF177','SIF193','SIF209','SIF225','SIF241',
                                       'SIF257','SIF273','SIF289','Shum06','Shum07','Shum08',
                                       'Shum09','Shum10','SoilType','Srad06','Srad07','Srad08',
                                       'Srad09','Srad10','Temp06','Temp07','Temp08','Temp09',
                                       'Temp10','Wind06','Wind07','Wind08','Wind09','Wind10',
                                       'Yield'],header=0) # 加載DataPath路徑所指定的數(shù)據(jù),names中的內(nèi)容為各列的名稱
    return MyData

# 初始數(shù)據(jù)處理
AllXY=LoadData(MyDataPath) # 調(diào)用LoadData函數(shù),獲取數(shù)據(jù)
Label={"Yield":AllXY.pop("Yield")} # 將因變量從全部數(shù)據(jù)中提取出
AllX,AllY=AllXY,(pd.DataFrame(Label)) # 將自變量與因變量分離

# 劃分數(shù)據(jù)訓練集與測試集
TrainX,TestX,TrainY,TestY=train_test_split(AllX,
                                           AllY,
                                           test_size=TestSize, # 指定數(shù)據(jù)中測試集所占比例
                                           random_state=RandomSeed # 指定劃分訓練集與測試集的隨機數(shù)種子
                                           )

2.5 Feature Columns定義

Feature Columns就是一個橋梁,聯(lián)系你的初始數(shù)據(jù)與模型;其好比一個名單,模型拿著這個名單到你的數(shù)據(jù)(即本文2.4部分你導入的數(shù)據(jù))中按列的名稱一一搜索,若初始數(shù)據(jù)中的某列名稱在Feature Columns里,那么模型就會把初始數(shù)據(jù)中這一列的數(shù)據(jù)全部拿到自己這里,進行訓練。

因為我們是希望導入數(shù)據(jù)的全部特征,那么可以直接在全部數(shù)據(jù)的自變量中循環(huán),將全部特征的名稱導入Feature Columns。

在這里需要注意的是,只有連續(xù)數(shù)值變量才可以用tf.feature_column.numeric_column處理;若是類別變量可以對其加以獨熱編碼等操作。

# estimator接口中的模型需要用“Feature columns”對象作為輸入數(shù)據(jù),只有這樣模型才知道讀取哪些數(shù)據(jù)
FeatureColumn=[] # 定義一個新的“Feature columns”對象
for key in AllX.keys():
    FeatureColumn.append(tf.feature_column.numeric_column(key=key)) # 將全部因變量數(shù)據(jù)(需要均為連續(xù)變量)導入

2.6 模型優(yōu)化方法構(gòu)建與模型結(jié)構(gòu)構(gòu)建

模型優(yōu)化方法即模型中的optimizer,其可以在模型結(jié)構(gòu)構(gòu)建時輸入;但有時優(yōu)化方法較為復雜(例如引入了學習率下降),那么在構(gòu)建模型時配置優(yōu)化方法的話就會有些不方便。因此我們首先構(gòu)建模型優(yōu)化方法。

# 定義模型優(yōu)化方法
# Optimizer=OptMethod # 優(yōu)化方法選用OptMethod所指定的方法
Optimizer=lambda:tf.keras.optimizers.Adam(
    learning_rate=tf.compat.v1.train.exponential_decay(learning_rate=LearningRate, # 初始學習率
                                                       global_step=tf.compat.v1.train.get_global_step(),
                                                       # 全局步數(shù),用以計算已經(jīng)衰減后的學習率
                                                       # get_global_step()函數(shù)自動獲取當前的已經(jīng)執(zhí)行的步數(shù)
                                                       decay_steps=DecayStep, # 學習率下降完成的指定步數(shù)
                                                       decay_rate=DecayRate # 衰減率
                                                       ) # 選用基于學習率指數(shù)下降的Adam方法,此舉有助于降低過擬合風險
                                                         # 這一函數(shù)返回每次對應的學習率
    )

以上代碼中有兩個Optimizer=,第一個是直接輸入優(yōu)化方法的名稱即可,名稱包括:'Adagrad''Adam''Ftrl''RMSProp'SGD';默認為Adagrad。

第二個是在選擇了優(yōu)化方法的基礎上,配置其他信息。例如第二個,其代表著學習率指數(shù)下降的Adam優(yōu)化方法。其中,tf.compat.v1.train.exponential_decay可視作一個計算每次訓練學習率的函數(shù),他返回的是每一次對應的學習率??赡苓@么說不太好理解,看這個公式:其返回值為learning_rate *decay_rate ^ (global_step / decay_steps),是不是就明白啦。

我們選擇第二個優(yōu)化方法,因此把第一個注釋掉。

隨后,我們定義模型的結(jié)構(gòu)。

# 基于DNNRegressor構(gòu)建深度學習模型
DNNModel=tf.estimator.DNNRegressor(feature_columns=FeatureColumn, # 指定模型所用的“Feature columns”對象
                                   hidden_units=HiddenLayer, # 指定隱藏層數(shù)量與每一層對應的神經(jīng)元數(shù)量
                                   optimizer=Optimizer, # 指定模型所用的優(yōu)化方法                                  
                                   activation_fn=eval(ActFun), # 指定激活函數(shù)
                                   dropout=Dropout, # 指定Dropout的值
                                   label_dimension=1, # 輸出數(shù)據(jù)的維度,即因變量的個數(shù)
                                   model_dir=MyModelPath, # 指定每一次訓練所得模型保存的位置
                                   # loss_reduction=eval(LossReduction), # 指定每個批次訓練誤差的減小方法
                                   batch_norm=eval(BatchNorm) # 指定是否使用Batch Normalizing
                                   )

模型的構(gòu)建,對照著代碼上的注釋,就比較好理解了;其中,我把loss_reduction注釋掉,是因為可能由于TensorFlow版本的問題,其總是報錯,所以就用默認的值就好;而最后一個batch_norm,決定了是否進行Batch Normalizing。Batch Normalizing可以保持深度神經(jīng)網(wǎng)絡在每一層保持相同分布,從而加快網(wǎng)絡收斂與增強網(wǎng)絡穩(wěn)固性。

其它參數(shù)可以參考官方網(wǎng)站,這里暫時不再贅述。

2.7 模型訓練

訓練模型這一部分,我認為反而比模型的構(gòu)建可能還難理解一些。我們先看代碼:

# 基于訓練數(shù)據(jù)訓練模型
DNNModel.train(input_fn=lambda:InputFun(TrainX,
                                        TrainY,
                                        True,
                                        TrainBatchSize
                                        ), # 調(diào)用InputFun函數(shù);InputFun函數(shù)返回“tf.data.Dataset”對象,這個對象才可以被
                                           # train函數(shù)識別并帶入模型;由于InputFun函數(shù)每次返回BatchSize大小的數(shù)據(jù)個數(shù),
                                           # 因此需要多次執(zhí)行,前面需要加lambda
               steps=TrainStep # 指定模型訓練的步數(shù)
               )

我們可以這么理解:在train函數(shù)中,只有一個參數(shù)input_fn;而這個參數(shù)的輸入,又是一個新的函數(shù)——這個新的函數(shù)就是大名鼎鼎的input function了。

他長這個樣子:

# InputFun函數(shù),訓練數(shù)據(jù)與驗證數(shù)據(jù)所用的Input函數(shù)
def InputFun(Features,Labels,Training,BatchSize):
    Datasets=tf.data.Dataset.from_tensor_slices((dict(Features),Labels)) # 對數(shù)據(jù)加以加載
    if Training:
        Datasets=Datasets.shuffle(1000).repeat() # 對于訓練數(shù)據(jù),需要打亂(shuffle)、重復(repeat)
    return Datasets.batch(BatchSize) # 將經(jīng)過上述處理后的數(shù)據(jù)以每次BatchSize個輸出

那我們首先就看input function——也就是代碼中的InputFun函數(shù)。其實這個函數(shù)的用處很簡單,用官網(wǎng)的話說,其就是用來輸入模型支持的數(shù)據(jù)類型的——只有經(jīng)過input function處理后,數(shù)據(jù)才可以被DNNRegressor識別。聽上去這么厲害,它到底是如何操作的呢?

很簡單,它只需要將初始的數(shù)據(jù)轉(zhuǎn)換為特定的格式即可,這個格式是一個元組(tuple),這個元組有兩個元素:

一就是features,是一個字典。這個字典的每一個鍵是每一個特征的名稱,就比如用植物特性對花的種類加以區(qū)分,那么花的“葉長”“葉片厚度”等等就是一個個特征的名稱,也就是這里的一個個“鍵”;而這個字典的值,就是這個特征對應的全部樣本的數(shù)值組成的數(shù)組。

二就是label,是全部樣本對應的label,也就是因變量。

不知道大家有沒有理解,我們就舉一個簡單的例子。假如我們用兩個地方的溫度與降水預測這兩個地方的作物產(chǎn)量:其溫度分別為10 ℃、20 ℃,降水分別為15 mm,25 mm,作物產(chǎn)量分別為100千克每公頃,150千克每公頃——那么tuple由兩個部分組成:

tuple=(features,label)
features={'溫度':np.array([10,20]),'降水':np.array([15,25])}
label=np.array([100,150])

怎么樣,是不是明白啦。

理解了之后,我們繼續(xù)看InputFun函數(shù)。首先,tf.data.Dataset.from_tensor_slices用來將輸入的數(shù)據(jù)加載并轉(zhuǎn)換為Datase的形式;隨后,如果是訓練狀態(tài)下,那么數(shù)據(jù)會進行打亂.shuffle(1000)——相當于對數(shù)據(jù)加以洗牌,防止初始數(shù)據(jù)具有一定的趨勢。例如如果我們做分類,其中初始數(shù)據(jù)的前80%都是第一類,后20%都是第二類,那么如果我們不打亂數(shù)據(jù),會使得用前80%數(shù)據(jù)訓練出來的結(jié)果都是第一類(即模型只認識第一類),在后20%進行測試時,所得結(jié)果也全都為第一類;所以要打亂。其中的1000buffer_size參數(shù),這個數(shù)據(jù)必須要比你的數(shù)據(jù)樣本個數(shù)大。至于.shuffle(1000)這個函數(shù)的原理我一直沒有搞明白,大家感興趣的話可以加以進一步了解。

.repeat()則是對數(shù)據(jù)集加以重復,之所以要重復,是因為我們需要對全部數(shù)據(jù)訓練好幾輪(即好幾個Epoch),因此要對初始數(shù)據(jù)加以重復。

隨后,用.batch()函數(shù)輸出BatchSize個數(shù)據(jù),也就是一批數(shù)據(jù);其中BatchSize就是每一批數(shù)據(jù)的個數(shù)。

這個就是InputFun函數(shù)。再看train函數(shù)函數(shù):大家也看出來了,這個InputFun函數(shù)是每次輸出一批(BatchSize個)數(shù)據(jù);而我們訓練的時候,肯定是要一批一批不停輸入數(shù)據(jù)的,因此這就解釋了為什么InputFun函數(shù)前有一個lambda——因為InputFun函數(shù)要把處理后的數(shù)據(jù)分多次傳給train

2.8 模型驗證與測試

理解了以上內(nèi)容,接下來就好理解多了。我們需要進行驗證與測試的操作——其實驗證也就是利用了測試集數(shù)據(jù),之所以我還進行了測試,是因為希望可以獲取測試集預測結(jié)果,從而更直觀地了解模型精度水平。

# InputFunPredict函數(shù),測試數(shù)據(jù)所用的Input函數(shù)
def InputFunPredict(Features,BatchSize):
    return tf.data.Dataset.from_tensor_slices(dict(Features)).batch(BatchSize) # 對數(shù)據(jù)加以加載,以每次BatchSize個輸出    

# 驗證模型并保存驗證結(jié)果
EvalResult=DNNModel.evaluate(input_fn=lambda:InputFun(TestX,
                                                      TestY,
                                                      False,
                                                      EvalBatchSize
                                                      )
                             )
# 打印驗證結(jié)果
print('ev:{}'.format(EvalResult))

# 基于測試數(shù)據(jù)測試模型精度結(jié)果
PredictValues=DNNModel.predict(input_fn=lambda:InputFunPredict(TestX,
                                                               PredictBatchSize
                                                               )
                               )

其中,驗證時.evaluate所用的InputFun函數(shù)其實和訓練集所用的是一樣的函數(shù),只不過驗證時不需要進行打亂.shuffle(1000)和重復.repeat()操作;而測試時.predictInputFun函數(shù)則是新的,其只需要輸入自變量、無需輸入因變量。

2.9 精度評定、擬合圖像繪制與模型參數(shù)與精度結(jié)果保存

精度評定與擬合圖像就不用過多說啦~最終,我們最好將模型參數(shù)與精度衡量指標結(jié)果保存在Excel表格中,這樣子方便之后的調(diào)參過程。這里就不再一一介紹啦,大家對照代碼中的注釋即可。

# AccuracyVerification函數(shù),進行精度驗證指標的計算與繪圖
def AccuracyVerification(PredictLabels,TestLabels):
    value=0
    PredictValuesList=[]
    for k in PredictLabels:
        value=k.get('predictions')[0]
        PredictValuesList.append(value)
    TestLabels=TestLabels.values.tolist()
    TestYList=sum(TestLabels,[])
    # 以上為獲取測試數(shù)據(jù)的因變量與模型預測所得的因變量
    Pearsonr=stats.pearsonr(TestYList,PredictValuesList) # 計算皮爾遜相關系數(shù)
    R2=metrics.r2_score(TestYList,PredictValuesList) # 計算R方
    RMSE=metrics.mean_squared_error(TestYList,PredictValuesList)**0.5 # 計算RMSE
    plt.cla()
    plt.plot(TestYList,PredictValuesList,'r*')
    plt.xlabel('Actual Values')
    plt.ylabel('Predicted Values')
    # 以上為繪制擬合圖像
    print('Pearson correlation coefficient is {0}, and RMSE is {1}.'.format(Pearsonr[0],RMSE))
    return (Pearsonr[0],R2,RMSE,PredictValuesList)

# WriteAccuracy函數(shù),將模型所涉及的參數(shù)與最終精度結(jié)果保存
def WriteAccuracy(*WriteVar):
    ExcelData=openpyxl.load_workbook(WriteVar[0])
    SheetName=ExcelData.get_sheet_names() # 獲取全部Sheet
    WriteSheet=ExcelData.get_sheet_by_name(SheetName[0]) # 獲取指定Sheet
    WriteSheet=ExcelData.active # 激活指定Sheet
    MaxRowNum=WriteSheet.max_row # 獲取指定Sheet對應第一個空行
    for i in range(len(WriteVar)-1):
        exec("WriteSheet.cell(MaxRowNum+1,i+1).value=WriteVar[i+1]") # 用exec執(zhí)行語句,寫入信息
    ExcelData.save(WriteVar[0]) # 保存文件

# 調(diào)用AccuracyVerification函數(shù),進行精度驗證指標的計算與繪圖
AccuracyResult=AccuracyVerification(PredictValues,TestY)
PearsonR,R2,RMSE,PredictY=AccuracyResult[0],AccuracyResult[1],AccuracyResult[2],AccuracyResult[3]

# 調(diào)用WriteAccuracy函數(shù),將模型所涉及的參數(shù)與最終精度結(jié)果保存
WriteAccuracy(MyResultSavePath,PearsonR,R2,RMSE,TestSize,RandomSeed,OptMethod,LearningRate,DecayStep,
              DecayRate,','.join('%s' %i for i in HiddenLayer),ActFun,Dropout,LossReduction,
              BatchNorm,TrainBatchSize,TrainStep,EvalBatchSize,PredictBatchSize)

至此,全部的代碼分解介紹都結(jié)束啦~

3 詳細代碼

# -*- coding: utf-8 -*-
"""
Created on Tue Feb 23 16:13:21 2021

@author: Chutj
"""

# 加載必要的庫、包等
import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='3'
import openpyxl
import numpy as np
import pandas as pd
import tensorflow as tf
import scipy.stats as stats
import matplotlib.pyplot as plt
from sklearn import metrics
from sklearn.model_selection import train_test_split

# ===============*** 函數(shù)聲明區(qū)域 ***===============

# DeleteOldModel函數(shù),刪除上一次運行所保存的模型
def DeleteOldModel(ModelPath):
    AllFileName=os.listdir(ModelPath) # 獲取ModelPath路徑下全部文件與文件夾
    for i in AllFileName:
        NewPath=os.path.join(ModelPath,i) # 分別將所獲取的文件或文件夾名稱與ModelPath路徑組合
        if os.path.isdir(NewPath): # 若組合后的新路徑是一個文件夾
            DeleteOldModel(NewPath) # 遞歸調(diào)用DeleteOldModel函數(shù)
        else:
            os.remove(NewPath) # 若不是一個新的文件夾,而是一個文件,那么就刪除

# LoadData函數(shù),加載全部數(shù)據(jù)
def LoadData(DataPath):
    MyData=pd.read_csv(DataPath,names=['EVI0610','EVI0626','EVI0712','EVI0728','EVI0813','EVI0829',
                                       'EVI0914','EVI0930','EVI1016','Lrad06','Lrad07','Lrad08',
                                       'Lrad09','Lrad10','Prec06','Prec07','Prec08','Prec09',
                                       'Prec10','Pres06','Pres07','Pres08','Pres09','Pres10',
                                       'SIF161','SIF177','SIF193','SIF209','SIF225','SIF241',
                                       'SIF257','SIF273','SIF289','Shum06','Shum07','Shum08',
                                       'Shum09','Shum10','SoilType','Srad06','Srad07','Srad08',
                                       'Srad09','Srad10','Temp06','Temp07','Temp08','Temp09',
                                       'Temp10','Wind06','Wind07','Wind08','Wind09','Wind10',
                                       'Yield'],header=0) # 加載DataPath路徑所指定的數(shù)據(jù),names中的內(nèi)容為各列的名稱
    return MyData

# InputFun函數(shù),訓練數(shù)據(jù)與驗證數(shù)據(jù)所用的Input函數(shù)
def InputFun(Features,Labels,Training,BatchSize):
    Datasets=tf.data.Dataset.from_tensor_slices((dict(Features),Labels)) # 對數(shù)據(jù)加以加載
    if Training:
        Datasets=Datasets.shuffle(1000).repeat() # 對于訓練數(shù)據(jù),需要打亂(shuffle)、重復(repeat)
    return Datasets.batch(BatchSize) # 將經(jīng)過上述處理后的數(shù)據(jù)以每次BatchSize個輸出

# InputFunPredict函數(shù),測試數(shù)據(jù)所用的Input函數(shù)
def InputFunPredict(Features,BatchSize):
    return tf.data.Dataset.from_tensor_slices(dict(Features)).batch(BatchSize) # 對數(shù)據(jù)加以加載,以每次BatchSize個輸出

# AccuracyVerification函數(shù),進行精度驗證指標的計算與繪圖
def AccuracyVerification(PredictLabels,TestLabels):
    value=0
    PredictValuesList=[]
    for k in PredictLabels:
        value=k.get('predictions')[0]
        PredictValuesList.append(value)
    TestLabels=TestLabels.values.tolist()
    TestYList=sum(TestLabels,[])
    # 以上為獲取測試數(shù)據(jù)的因變量與模型預測所得的因變量
    Pearsonr=stats.pearsonr(TestYList,PredictValuesList) # 計算皮爾遜相關系數(shù)
    R2=metrics.r2_score(TestYList,PredictValuesList) # 計算R方
    RMSE=metrics.mean_squared_error(TestYList,PredictValuesList)**0.5 # 計算RMSE
    plt.cla()
    plt.plot(TestYList,PredictValuesList,'r*')
    plt.xlabel('Actual Values')
    plt.ylabel('Predicted Values')
    # 以上為繪制擬合圖像
    print('Pearson correlation coefficient is {0}, and RMSE is {1}.'.format(Pearsonr[0],RMSE))
    return (Pearsonr[0],R2,RMSE,PredictValuesList)

# WriteAccuracy函數(shù),將模型所涉及的參數(shù)與最終精度結(jié)果保存
def WriteAccuracy(*WriteVar):
    ExcelData=openpyxl.load_workbook(WriteVar[0])
    SheetName=ExcelData.get_sheet_names() # 獲取全部Sheet
    WriteSheet=ExcelData.get_sheet_by_name(SheetName[0]) # 獲取指定Sheet
    WriteSheet=ExcelData.active # 激活指定Sheet
    MaxRowNum=WriteSheet.max_row # 獲取指定Sheet對應第一個空行
    for i in range(len(WriteVar)-1):
        exec("WriteSheet.cell(MaxRowNum+1,i+1).value=WriteVar[i+1]") # 用exec執(zhí)行語句,寫入信息
    ExcelData.save(WriteVar[0]) # 保存文件


# ===============*** 代碼由此開始執(zhí)行 ***===============
#      ++++++++++--- 建議由這里開始看 ---++++++++++

# 將各類變量放在一個位置集中定義,十分有利于機器學習等變量較多的代碼
MyModelPath="G:/CropYield/03_DL/02_DNNModle" # 確定每一次訓練所得模型保存的位置
MyDataPath="G:/CropYield/03_DL/00_Data/AllDataAll.csv" # 確定輸入數(shù)據(jù)的位置
MyResultSavePath="G:/CropYield/03_DL/03_OtherResult/EvalResult54.xlsx" # 確定模型精度結(jié)果(RMSE等)與模型參數(shù)保存的位置
TestSize=0.2 # 確定數(shù)據(jù)中測試集所占比例
RandomSeed=np.random.randint(low=24,high=25) # 確定劃分訓練集與測試集的隨機數(shù)種子
OptMethod='Adam' # 確定模型所用的優(yōu)化方法
LearningRate=0.01 # 確定學習率
DecayStep=200 # 確定學習率下降的步數(shù)
DecayRate=0.96 # 確定學習率下降比率
HiddenLayer=[64,128] # 確定隱藏層數(shù)量與每一層對應的神經(jīng)元數(shù)量
ActFun='tf.nn.relu' # 確定激活函數(shù)
Dropout=0.3 # 確定Dropout的值
LossReduction='tf.compat.v1.ReductionV2.SUM_OVER_BATCH_SIZE' # 指定每個批次訓練誤差的減小方法
BatchNorm='False' # 確定是否使用Batch Normalizing
TrainBatchSize=110 # 確定訓練數(shù)據(jù)一個Batch的大小
TrainStep=3000 # 確定訓練數(shù)據(jù)的Step數(shù)量
EvalBatchSize=1 # 確定驗證數(shù)據(jù)一個Batch的大小
PredictBatchSize=1 # 確定預測數(shù)據(jù)(即測試集)一個Batch的大小

# 調(diào)用DeleteOldModel函數(shù),刪除上一次運行所保存的模型
DeleteOldModel(MyModelPath)

# 初始數(shù)據(jù)處理
AllXY=LoadData(MyDataPath) # 調(diào)用LoadData函數(shù),獲取數(shù)據(jù)
Label={"Yield":AllXY.pop("Yield")} # 將因變量從全部數(shù)據(jù)中提取出
AllX,AllY=AllXY,(pd.DataFrame(Label)) # 將自變量與因變量分離

# 劃分數(shù)據(jù)訓練集與測試集
TrainX,TestX,TrainY,TestY=train_test_split(AllX,
                                           AllY,
                                           test_size=TestSize, # 指定數(shù)據(jù)中測試集所占比例
                                           random_state=RandomSeed # 指定劃分訓練集與測試集的隨機數(shù)種子
                                           )

# estimator接口中的模型需要用“Feature columns”對象作為輸入數(shù)據(jù),只有這樣模型才知道讀取哪些數(shù)據(jù)
FeatureColumn=[] # 定義一個新的“Feature columns”對象
for key in AllX.keys():
    FeatureColumn.append(tf.feature_column.numeric_column(key=key)) # 將全部因變量數(shù)據(jù)(需要均為連續(xù)變量)導入

# 定義模型優(yōu)化方法
# Optimizer=OptMethod # 優(yōu)化方法選用OptMethod所指定的方法
Optimizer=lambda:tf.keras.optimizers.Adam(
    learning_rate=tf.compat.v1.train.exponential_decay(learning_rate=LearningRate, # 初始學習率
                                                       global_step=tf.compat.v1.train.get_global_step(),
                                                       # 全局步數(shù),用以計算已經(jīng)衰減后的學習率
                                                       # get_global_step()函數(shù)自動獲取當前的已經(jīng)執(zhí)行的步數(shù)
                                                       decay_steps=DecayStep, # 學習率下降完成的指定步數(shù)
                                                       decay_rate=DecayRate # 衰減率
                                                       ) # 選用基于學習率指數(shù)下降的Adam方法,此舉有助于降低過擬合風險
                                                         # 這一函數(shù)返回每次對應的學習率
    )


# 基于DNNRegressor構(gòu)建深度學習模型
DNNModel=tf.estimator.DNNRegressor(feature_columns=FeatureColumn, # 指定模型所用的“Feature columns”對象
                                   hidden_units=HiddenLayer, # 指定隱藏層數(shù)量與每一層對應的神經(jīng)元數(shù)量
                                   optimizer=Optimizer, # 指定模型所用的優(yōu)化方法                                  
                                   activation_fn=eval(ActFun), # 指定激活函數(shù)
                                   dropout=Dropout, # 指定Dropout的值
                                   label_dimension=1, # 輸出數(shù)據(jù)的維度,即因變量的個數(shù)
                                   model_dir=MyModelPath, # 指定每一次訓練所得模型保存的位置
                                   # loss_reduction=eval(LossReduction), # 指定每個批次訓練誤差的減小方法
                                   batch_norm=eval(BatchNorm) # 指定是否使用Batch Normalizing
                                   )

# tf.compat.v1.logging.set_verbosity(tf.compat.v1.logging.INFO) # 將INFO級別的日志信息顯示到屏幕

# 基于訓練數(shù)據(jù)訓練模型
DNNModel.train(input_fn=lambda:InputFun(TrainX,
                                        TrainY,
                                        True,
                                        TrainBatchSize
                                        ), # 調(diào)用InputFun函數(shù);InputFun函數(shù)返回“tf.data.Dataset”對象,這個對象才可以被
                                           # train函數(shù)識別并帶入模型;由于InputFun函數(shù)每次返回BatchSize大小的數(shù)據(jù)個數(shù),
                                           # 因此需要多次執(zhí)行,前面需要加lambda
               steps=TrainStep # 指定模型訓練的步數(shù)
               ) 

# 驗證模型并保存驗證結(jié)果
EvalResult=DNNModel.evaluate(input_fn=lambda:InputFun(TestX,
                                                      TestY,
                                                      False,
                                                      EvalBatchSize
                                                      )
                             )
# 打印驗證結(jié)果
print('ev:{}'.format(EvalResult))

# 基于測試數(shù)據(jù)測試模型精度結(jié)果
PredictValues=DNNModel.predict(input_fn=lambda:InputFunPredict(TestX,
                                                               PredictBatchSize
                                                               )
                               )

# 調(diào)用AccuracyVerification函數(shù),進行精度驗證指標的計算與繪圖
AccuracyResult=AccuracyVerification(PredictValues,TestY)
PearsonR,R2,RMSE,PredictY=AccuracyResult[0],AccuracyResult[1],AccuracyResult[2],AccuracyResult[3]

# 調(diào)用WriteAccuracy函數(shù),將模型所涉及的參數(shù)與最終精度結(jié)果保存
WriteAccuracy(MyResultSavePath,PearsonR,R2,RMSE,TestSize,RandomSeed,OptMethod,LearningRate,DecayStep,
              DecayRate,','.join('%s' %i for i in HiddenLayer),ActFun,Dropout,LossReduction,
              BatchNorm,TrainBatchSize,TrainStep,EvalBatchSize,PredictBatchSize)

以上就是Python基于TensorFlow接口實現(xiàn)深度學習神經(jīng)網(wǎng)絡回歸的詳細內(nèi)容,更多關于Python TensorFlow深度學習神經(jīng)網(wǎng)絡回歸的資料請關注腳本之家其它相關文章!

相關文章

  • Sanic框架路由用法實例分析

    Sanic框架路由用法實例分析

    這篇文章主要介紹了Sanic框架路由用法,結(jié)合實例形式較為詳細的分析了Sanic框架路由的原理、請求參數(shù)、請求類型、重定向等相關操作技巧,需要的朋友可以參考下
    2018-07-07
  • 淺談Python中的數(shù)據(jù)類型

    淺談Python中的數(shù)據(jù)類型

    Python很重要的的那幾個數(shù)據(jù)類型:字符串,列表,字典,元組,經(jīng)常有網(wǎng)友問他們之間重要的區(qū)別的是什么?能否舉幾個例子來說明下!下嘛我們就來探討下。
    2015-05-05
  • python利用json和pyecharts畫折線圖實例代碼

    python利用json和pyecharts畫折線圖實例代碼

    這篇文章主要介紹了python利用json和pyecharts畫折線圖實例,本文通過示例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2022-12-12
  • 圖文詳解感知機算法原理及Python實現(xiàn)

    圖文詳解感知機算法原理及Python實現(xiàn)

    感知機是二類分類的線性分類模型,其輸入為實例的特征向量,輸出為實例的類別(取+1和-1二值)。本文將為大家詳細講講感知機算法的原理及實現(xiàn),需要的可以參考一下
    2022-08-08
  • Pandas標記刪除重復記錄的方法

    Pandas標記刪除重復記錄的方法

    下面小編就為大家分享一篇Pandas標記刪除重復記錄的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-04-04
  • 在vscode使用jupyter notebook出現(xiàn)bug及解決

    在vscode使用jupyter notebook出現(xiàn)bug及解決

    這篇文章主要介紹了在vscode使用jupyter notebook出現(xiàn)bug及解決,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-06-06
  • 最新評論