欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

基于Matlab實現(xiàn)人工神經(jīng)網(wǎng)絡(ANN)回歸的示例詳解

 更新時間:2023年02月20日 14:39:17   作者:瘋狂學習GIS  
這篇文章主要為大家詳細介紹了Matlab實現(xiàn)人工神經(jīng)網(wǎng)絡(ANN)回歸的相關資料,文中的示例代碼講解詳細,感興趣的小伙伴可以跟隨小編一起了解一下

在之前的文章MATLAB實現(xiàn)隨機森林(RF)回歸與自變量影響程度分析中,我們對基于MATLAB隨機森林(RF)回歸與變量影響程度(重要性)排序的代碼加以詳細講解與實踐。本次我們繼續(xù)基于MATLAB,對另一種常用的機器學習方法——神經(jīng)網(wǎng)絡方法加以代碼實戰(zhàn)。

首先需要注明的是,在MATLAB中,我們可以直接基于“APP”中的“Neural Net Fitting”工具箱實現(xiàn)在無需代碼的情況下,對神經(jīng)網(wǎng)絡算法加以運行。

基于工具箱的神經(jīng)網(wǎng)絡方法雖然方便,但是一些參數(shù)不能調(diào)整;同時也不利于我們對算法、代碼的理解。因此,本文不利用“Neural Net Fitting”工具箱,而是直接通過代碼將神經(jīng)網(wǎng)絡方法加以運行——但是,本文的代碼其實也是通過上述工具箱運行后生成的;而這種生成神經(jīng)網(wǎng)絡代碼的方法也是MATLAB官方推薦的方式。

另外,需要注意的是,本文直接進行神經(jīng)網(wǎng)絡算法的執(zhí)行,省略了前期數(shù)據(jù)處理、訓練集與測試集劃分、精度衡量指標選取等。因此建議大家先將文章MATLAB實現(xiàn)隨機森林(RF)回歸與自變量影響程度分析閱讀后,再閱讀本文。

本文分為兩部分,首先是將代碼分段、詳細講解,方便大家理解;隨后是完整代碼,方便大家自行嘗試。

1 分解代碼

1.1 循環(huán)準備

由于機器學習往往需要多次執(zhí)行,我們就在此先定義循環(huán)。

%% ANN Cycle Preparation

ANNRMSE=9999;
ANNRunNum=0;
ANNRMSEMatrix=[];
ANNrAllMatrix=[];
while ANNRMSE>400

其中,ANNRMSE是初始的RMSEANNRunNum是神經(jīng)網(wǎng)絡算法當前運行的次數(shù);ANNRMSEMatrix用來存儲每一次神經(jīng)網(wǎng)絡運行后所得到的RMSE結果;ANNrAllMatrix用來存儲每一次神經(jīng)網(wǎng)絡運行后所得到的皮爾遜相關系數(shù)結果;最后一句表示當所得到的模型RMSE>400時,則停止循環(huán)。

1.2 神經(jīng)網(wǎng)絡構建

接下來,我們對神經(jīng)網(wǎng)絡的整體結構加以定義。

%% ANN

x=TrainVARI';
t=TrainYield';
trainFcn = 'trainlm';
hiddenLayerSize = [10 10 10];
ANNnet = fitnet(hiddenLayerSize,trainFcn);

其中,TrainVARITrainYield分別是我這里訓練數(shù)據(jù)的自變量(特征)與因變量(標簽);trainFcn為神經(jīng)網(wǎng)絡所選用的訓練函數(shù)方法名稱,其名稱與對應的方法對照如下表:

hiddenLayerSize為神經(jīng)網(wǎng)絡所用隱層與各層神經(jīng)元個數(shù),[10 10 10]代表共有三層隱層,各層神經(jīng)元個數(shù)分別為10,1010。

1.3 數(shù)據(jù)處理

接下來,對輸入神經(jīng)網(wǎng)絡模型的數(shù)據(jù)加以處理。

ANNnet.input.processFcns = {'removeconstantrows','mapminmax'};
ANNnet.output.processFcns = {'removeconstantrows','mapminmax'};
ANNnet.divideFcn = 'dividerand';
ANNnet.divideMode = 'sample';
ANNnet.divideParam.trainRatio = 0.6;
ANNnet.divideParam.valRatio = 0.4;
ANNnet.divideParam.testRatio = 0.0;

其中,ANNnet.input.processFcnsANNnet.output.processFcns分別代表輸入模型數(shù)據(jù)的處理方法,'removeconstantrows'表示刪除在各樣本中數(shù)值始終一致的特征列,'mapminmax'表示將數(shù)據(jù)歸一化處理;divideFcn表示劃分數(shù)據(jù)訓練集、驗證集與測試集的方法,'dividerand'表示依據(jù)所給定的比例隨機劃分;divideMode表示對數(shù)據(jù)劃分的維度,我們這里選擇'sample',也就是對樣本進行劃分;divideParam表示訓練集、驗證集與測試集所占比例,那么在這里,因為是直接用了先前隨機森林方法(可以看這篇博客)中的數(shù)據(jù)劃分方式,那么為了保證訓練集、測試集的固定,我們就將divideParam.testRatio設置為0.0,然后將訓練集與驗證集比例劃分為0.60.4。

1.4 模型訓練參數(shù)配置

接下來對模型運行過程中的主要參數(shù)加以配置。

ANNnet.performFcn = 'mse';
ANNnet.trainParam.epochs=5000;
ANNnet.trainParam.goal=0.01;

其中,performFcn為模型誤差衡量函數(shù),'mse'表示均方誤差;trainParam.epochs表示訓練時Epoch次數(shù),trainParam.goal表示模型所要達到的精度要求(即模型運行到trainParam.epochs次時或誤差小于trainParam.goal時將會停止運行)。

1.5 神經(jīng)網(wǎng)絡實現(xiàn)

這一部分代碼大多數(shù)與繪圖、代碼與GUI生成等相關,因此就不再一一解釋了,大家可以直接運行。需要注意的是,train是模型訓練函數(shù)。

% For a list of all plot functions type: help nnplot
ANNnet.plotFcns = {'plotperform','plottrainstate','ploterrhist','plotregression','plotfit'};
[ANNnet,tr] = train(ANNnet,x,t);
y = ANNnet(x);
e = gsubtract(t,y);
performance = perform(ANNnet,t,y);
% Recalculate Training, Validation and Test Performance
trainTargets = t .* tr.trainMask{1};
valTargets = t .* tr.valMask{1};
testTargets = t .* tr.testMask{1};
trainPerformance = perform(ANNnet,trainTargets,y);
valPerformance = perform(ANNnet,valTargets,y);
testPerformance = perform(ANNnet,testTargets,y);
% view(net)
% Plots
%figure, plotperform(tr)
%figure, plottrainstate(tr)
%figure, ploterrhist(e)
%figure, plotregression(t,y)
%figure, plotfit(net,x,t)
% Deployment
% See the help for each generation function for more information.
if (false)
    % Generate MATLAB function for neural network for application
    % deployment in MATLAB scripts or with MATLAB Compiler and Builder
    % tools, or simply to examine the calculations your trained neural
    % network performs.
    genFunction(ANNnet,'myNeuralNetworkFunction');
    y = myNeuralNetworkFunction(x);
end
if (false)
    % Generate a matrix-only MATLAB function for neural network code
    % generation with MATLAB Coder tools.
    genFunction(ANNnet,'myNeuralNetworkFunction','MatrixOnly','yes');
    y = myNeuralNetworkFunction(x);
end
if (false)
    % Generate a Simulink diagram for simulation or deployment with.
    % Simulink Coder tools.
    gensim(ANNnet);
end

1.6 精度衡量

%% Accuracy of ANN

ANNPredictYield=sim(ANNnet,TestVARI')';
ANNRMSE=sqrt(sum(sum((ANNPredictYield-TestYield).^2))/size(TestYield,1));
ANNrMatrix=corrcoef(ANNPredictYield,TestYield);
ANNr=ANNrMatrix(1,2);
ANNRunNum=ANNRunNum+1;
ANNRMSEMatrix=[ANNRMSEMatrix,ANNRMSE];
ANNrAllMatrix=[ANNrAllMatrix,ANNr];
disp(ANNRunNum);
end
disp(ANNRMSE);

其中,ANNPredictYield為預測結果;ANNRMSE、ANNrMatrix分別為模型精度衡量指標RMSE與皮爾遜相關系數(shù)。結合本文1.1部分可知,我這里設置為當所得神經(jīng)網(wǎng)絡模型RMSE400以內(nèi)時,將會停止循環(huán);否則繼續(xù)開始執(zhí)行本文1.2部分至1.6部分的代碼。

1.7 保存模型

這一部分就不再贅述了,大家可以參考文章MATLAB實現(xiàn)隨機森林(RF)回歸與自變量影響程度分析。

%% ANN Model Storage

ANNModelSavePath='G:\CropYield\02_CodeAndMap\00_SavedModel\';
save(sprintf('%sRF0417ANN0399.mat',ANNModelSavePath),'TestVARI','TestYield','TrainVARI','TrainYield','ANNnet','ANNPredictYield','ANNr','ANNRMSE',...
    'hiddenLayerSize');

2 完整代碼

完整代碼如下:

%% ANN Cycle Preparation
ANNRMSE=9999;
ANNRunNum=0;
ANNRMSEMatrix=[];
ANNrAllMatrix=[];
while ANNRMSE>1000

%% ANN
x=TrainVARI';
t=TrainYield';
trainFcn = 'trainlm';
hiddenLayerSize = [10 10 10];
ANNnet = fitnet(hiddenLayerSize,trainFcn);
ANNnet.input.processFcns = {'removeconstantrows','mapminmax'};
ANNnet.output.processFcns = {'removeconstantrows','mapminmax'};
ANNnet.divideFcn = 'dividerand';
ANNnet.divideMode = 'sample';
ANNnet.divideParam.trainRatio = 0.6;
ANNnet.divideParam.valRatio = 0.4;
ANNnet.divideParam.testRatio = 0.0;
ANNnet.performFcn = 'mse';
ANNnet.trainParam.epochs=5000;
ANNnet.trainParam.goal=0.01;
% For a list of all plot functions type: help nnplot
ANNnet.plotFcns = {'plotperform','plottrainstate','ploterrhist','plotregression','plotfit'};
[ANNnet,tr] = train(ANNnet,x,t);
y = ANNnet(x);
e = gsubtract(t,y);
performance = perform(ANNnet,t,y);
% Recalculate Training, Validation and Test Performance
trainTargets = t .* tr.trainMask{1};
valTargets = t .* tr.valMask{1};
testTargets = t .* tr.testMask{1};
trainPerformance = perform(ANNnet,trainTargets,y);
valPerformance = perform(ANNnet,valTargets,y);
testPerformance = perform(ANNnet,testTargets,y);
% view(net)
% Plots
%figure, plotperform(tr)
%figure, plottrainstate(tr)
%figure, ploterrhist(e)
%figure, plotregression(t,y)
%figure, plotfit(net,x,t)
% Deployment
% See the help for each generation function for more information.
if (false)
    % Generate MATLAB function for neural network for application
    % deployment in MATLAB scripts or with MATLAB Compiler and Builder
    % tools, or simply to examine the calculations your trained neural
    % network performs.
    genFunction(ANNnet,'myNeuralNetworkFunction');
    y = myNeuralNetworkFunction(x);
end
if (false)
    % Generate a matrix-only MATLAB function for neural network code
    % generation with MATLAB Coder tools.
    genFunction(ANNnet,'myNeuralNetworkFunction','MatrixOnly','yes');
    y = myNeuralNetworkFunction(x);
end
if (false)
    % Generate a Simulink diagram for simulation or deployment with.
    % Simulink Coder tools.
    gensim(ANNnet);
end

%% Accuracy of ANN
ANNPredictYield=sim(ANNnet,TestVARI')';
ANNRMSE=sqrt(sum(sum((ANNPredictYield-TestYield).^2))/size(TestYield,1));
ANNrMatrix=corrcoef(ANNPredictYield,TestYield);
ANNr=ANNrMatrix(1,2);
ANNRunNum=ANNRunNum+1;
ANNRMSEMatrix=[ANNRMSEMatrix,ANNRMSE];
ANNrAllMatrix=[ANNrAllMatrix,ANNr];
disp(ANNRunNum);
end
disp(ANNRMSE);

%% ANN Model Storage
ANNModelSavePath='G:\CropYield\02_CodeAndMap\00_SavedModel\';
save(sprintf('%sRF0417ANN0399.mat',ANNModelSavePath),'AreaPercent','InputOutput','nLeaf','nTree',...
    'RandomNumber','RFModel','RFPredictConfidenceInterval','RFPredictYield','RFr','RFRMSE',...
    'TestVARI','TestYield','TrainVARI','TrainYield','ANNnet','ANNPredictYield','ANNr','ANNRMSE',...
    'hiddenLayerSize');

以上就是基于Matlab實現(xiàn)人工神經(jīng)網(wǎng)絡(ANN)回歸的示例詳解的詳細內(nèi)容,更多關于Matlab人工神經(jīng)網(wǎng)絡ANN回歸的資料請關注腳本之家其它相關文章!

相關文章

  • C++模板類的用法實例

    C++模板類的用法實例

    這篇文章主要介紹了C++模板類的用法實例,以實例形式詳細講述了模板類的接口、成員、內(nèi)聯(lián)函數(shù)等概念及用法,需要的朋友可以參考下
    2014-10-10
  • 增加Vscode引用路徑的解決方法(2種)

    增加Vscode引用路徑的解決方法(2種)

    在嵌入式開發(fā)中需要經(jīng)常用到庫函數(shù), Vscode需要配置引用路徑,本文主要介紹了增加Vscode引用路徑的解決方法,具有一定的參考價值,感興趣的可以了解一下
    2024-02-02
  • C語言開源庫iniparser解析ini文件的方法

    C語言開源庫iniparser解析ini文件的方法

    INI(Initialization?File)文件是一種簡單直觀的數(shù)據(jù)存儲格式,常用于配置應用程序的初始化設置,使用?iniparser?庫的應用程序可以很方便地讀取和解析INI文件中的配置信息,大大簡化了對配置文件的處理工作,降低了程序的開發(fā)復雜度,感興趣的的朋友跟隨小編一起看看吧
    2024-04-04
  • C/C++中extern

    C/C++中extern "C" 的作用分析

    這篇文章主要介紹了C/C++中extern "C" 的作用,是在進行C/C++程序設計中非常常見的用法,需要的朋友可以參考下
    2014-09-09
  • 利用C語言來求最大連續(xù)子序列乘積的方法

    利用C語言來求最大連續(xù)子序列乘積的方法

    這篇文章主要介紹了利用C語言來求最大連續(xù)子序列乘積的方法,基本的思路以外文中還附有相關ACM題目,需要的朋友可以參考下
    2015-08-08
  • C語言中的字符串數(shù)據(jù)在C中的存儲方式

    C語言中的字符串數(shù)據(jù)在C中的存儲方式

    這篇文章主要介紹了C語言中的字符串數(shù)據(jù)在C中的存儲方式,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2022-07-07
  • C語言舉例講解i++與++i之間的區(qū)別

    C語言舉例講解i++與++i之間的區(qū)別

    這篇文章主要介紹了C語言中i++和++i的區(qū)別,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2022-05-05
  • 用C語言編寫推箱子游戲

    用C語言編寫推箱子游戲

    這篇文章主要為大家詳細介紹了用C語言編寫推箱子游戲,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2019-10-10
  • C語言中的getchar和putchar的使用方法

    C語言中的getchar和putchar的使用方法

    這篇文章主要介紹了C語言中的getchar和putchar的使用方法的相關資料,希望通過本文能幫助到大家,需要的朋友可以參考下
    2017-10-10
  • C++核心編程之占位參數(shù)和默認參數(shù)

    C++核心編程之占位參數(shù)和默認參數(shù)

    這篇文章主要介紹了C++核心編程之占位參數(shù)和默認參數(shù),c++中函數(shù)的形參列表中的形參是可以有默認值的,函數(shù)的形參列表里可以有占位參數(shù),用來占位,調(diào)用函數(shù)時必須填補位置。下面更多相關內(nèi)容的詳細介紹,需要的小伙伴可以參考一下
    2022-03-03

最新評論