欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python利用全連接神經(jīng)網(wǎng)絡(luò)求解MNIST問題詳解

 更新時間:2020年01月14日 11:35:41   作者:theVicTory  
這篇文章主要介紹了Python利用全連接神經(jīng)網(wǎng)絡(luò)求解MNIST問題,結(jié)合實例形式詳細分析了單隱藏層神經(jīng)網(wǎng)絡(luò)與多層神經(jīng)網(wǎng)絡(luò),以及Python全連接神經(jīng)網(wǎng)絡(luò)求解MNIST問題相關(guān)操作技巧,需要的朋友可以參考下

本文實例講述了Python利用全連接神經(jīng)網(wǎng)絡(luò)求解MNIST問題。分享給大家供大家參考,具體如下:

1、單隱藏層神經(jīng)網(wǎng)絡(luò)

人類的神經(jīng)元在樹突接受刺激信息后,經(jīng)過細胞體處理,判斷如果達到閾值,則將信息傳遞給下一個神經(jīng)元或輸出。類似地,神經(jīng)元模型在輸入層輸入特征值x之后,與權(quán)重w相乘求和再加上b,經(jīng)過激活函數(shù)判斷后傳遞給下一層隱藏層或輸出層。

單神經(jīng)元的模型只有一個求和節(jié)點(如左下圖所示)。全連接神經(jīng)網(wǎng)絡(luò)(Full Connected Networks)如右下圖所示,中間層有多個神經(jīng)元,并且每層的每個神經(jīng)元都是與上一層和下一層的節(jié)點都對應(yīng)連接。中間隱藏層只有一層的神經(jīng)元網(wǎng)絡(luò)稱為單隱藏層神經(jīng)網(wǎng)絡(luò)。如果有多個中間隱藏層則稱為多隱藏層神經(jīng)網(wǎng)絡(luò)。

          

常見的激活函數(shù)如下所示:

下面是在單個神經(jīng)元邏輯回歸求解MNIST手寫數(shù)字識別問題的基礎(chǔ)上,采用單隱藏層神經(jīng)網(wǎng)絡(luò)進行求解的過程。

首先載入數(shù)據(jù),從Tensor FLow提供的數(shù)據(jù)庫中導(dǎo)入MNIST數(shù)據(jù)

import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
mnist=input_data.read_data_sets('MNIST_data/',one_hot=True)

構(gòu)建輸入層,其中x是圖像的特征值,由于是28×28=784個像素點,所有輸入為未知行數(shù)、每行784的二維數(shù)組。y是圖像的標(biāo)簽值,共有0~9十種可能,所有為[None,10]的二維數(shù)組

x=tf.placeholder(tf.float32,[None,784],name='x')
y=tf.placeholder(tf.float32,[None,10],name='y')

構(gòu)建隱藏層,設(shè)置隱藏層神經(jīng)元個數(shù)為256,由于輸入層輸入為784,而隱藏層神經(jīng)元為h1_num,所以W1為[784,h1_num]形式的二維數(shù)組,b為[h1_num]的一維向量。此外采用ReLU作為激活函數(shù)處理輸出。

h1_num=256                        #設(shè)置隱藏層神經(jīng)元數(shù)量
W1=tf.Variable(tf.random_normal([784,h1_num]),name='W1')
b1=tf.Variable(tf.zeros([h1_num]),name='b1')
Y1=tf.nn.relu(tf.matmul(x,W1)+b1)             #激活函數(shù)

構(gòu)建輸出層,由于隱藏層有h1_num個神經(jīng)元輸出,輸出層輸出10種輸出結(jié)果,所以W2為[h1_num,10]的二維數(shù)組,b2為[10]的一維向量。最后結(jié)果通過softmax將線性輸出Y2轉(zhuǎn)化為獨熱編碼方式。

W2=tf.Variable(tf.random_normal([h1_num,10]),name='W2')
b2=tf.Variable(tf.zeros([10]),name='b2')
Y2=tf.matmul(Y1,W2)+b2
pred=tf.nn.softmax(Y2)

設(shè)置訓(xùn)練的超參數(shù)、損失函數(shù)、優(yōu)化器,這里采用Adam Optimizer進行優(yōu)化。準(zhǔn)確率是通過比較預(yù)測值和標(biāo)簽值是否一致來定義。在定義損失函數(shù)時,如果直接使用交叉熵的方式定義,會出現(xiàn)log0值為NaN的情況,導(dǎo)致數(shù)據(jù)不穩(wěn)定,無法得出結(jié)果。Tensor Flow提供了結(jié)合softmax定義交叉熵的方式softmax_cross_entropy_with_logits(),第一個參數(shù)為不經(jīng)softmax處理的前向計算結(jié)果Y2,第二個參數(shù)為標(biāo)簽值y

train_epochs=20                    #訓(xùn)練輪數(shù)
batch_size=50                     #每個批次的樣本數(shù)
batch_num=int(mnist.train.num_examples/batch_size)  #一輪需要訓(xùn)練多少批
learning_rate=0.01
#定義損失函數(shù)、優(yōu)化器
loss_function=tf.reduce_mean(             #softmax交叉熵損失函數(shù)
       tf.nn.softmax_cross_entropy_with_logits(logits=Y2,labels=y)) 
optimizer=tf.train.AdamOptimizer(learning_rate).minimize(loss_function)
#定義準(zhǔn)確率
correct_prediction=tf.equal(tf.argmax(pred,1),tf.argmax(y,1))
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

進行訓(xùn)練并輸出損失值與準(zhǔn)確率,訓(xùn)練進行多輪,每輪一開始分批次讀入數(shù)據(jù)進行訓(xùn)練,每結(jié)束一輪輸出一次損失和準(zhǔn)確率。

ss=tf.Session()
ss.run(tf.global_variables_initializer())           #進行全部變量的初始化
 
for epoch in range(train_epochs):
  for batch in range(batch_num):              #分批次讀取數(shù)據(jù)進行訓(xùn)練
    xs,ys=mnist.train.next_batch(batch_size)
    ss.run(optimizer,feed_dict={x:xs,y:ys})
  loss,acc=ss.run([loss_function,accuracy],\
          feed_dict={x:mnist.validation.images,y:mnist.validation.labels})
  print('第%2d輪訓(xùn)練:損失為:%9f,準(zhǔn)確率:%.4f'%(epoch+1,loss,acc))
 
ss.close()

運行結(jié)果如下圖,與單個神經(jīng)元相比,可以較快得到較高的準(zhǔn)確率

評估模型,將測試集數(shù)據(jù)填充入占位符x,y去求準(zhǔn)確率,

test_res=ss.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
print('測試集的準(zhǔn)確率為:%.4f'%(test_res))

2、多層神經(jīng)網(wǎng)絡(luò)

多層是指中間的隱藏層有多個,例如使用兩層隱藏層,第一個隱藏層在計算后將結(jié)果輸出到第二個隱藏層,再由第二個隱藏層計算后交給輸出層,而第二個隱藏層的設(shè)置與第一個基本相同,例如:

#構(gòu)建輸入層
x=tf.placeholder(tf.float32,[None,784],name='x')
y=tf.placeholder(tf.float32,[None,10],name='y')
#構(gòu)建第一個隱藏層
h1_num=256                            #第一隱藏層神經(jīng)元數(shù)量256
W1=tf.Variable(tf.truncated_normal([784,h1_num],stddev=0.1),name='W1')
b1=tf.Variable(tf.zeros([h1_num]),name='b1')
Y1=tf.nn.relu(tf.matmul(x,W1)+b1)
#構(gòu)建第二個隱藏層
h2_num=64                             #第二隱藏層神經(jīng)元數(shù)量64
W2=tf.Variable(tf.random_normal([h1_num,h2_num],stddev=0.1),name='W2')
b2=tf.Variable(tf.zeros([h2_num]),name='b2')
Y2=tf.nn.relu(tf.matmul(Y1,W2)+b2)
#構(gòu)建輸出層
W3=tf.Variable(tf.random_normal([h2_num,10],stddev=0.1),name='W3')
b3=tf.Variable(tf.zeros([10]),name='b3')
Y3=tf.matmul(Y2,W3)+b3
pred=tf.nn.softmax(Y3)

在第一隱藏層產(chǎn)生參數(shù)W1時采用的是截斷正態(tài)分布的隨機函數(shù)tf.truncated_normal(),與普通正太分布相比,截斷正態(tài)分布生成的值之間的差距不會太大。

設(shè)置的第一隱藏層的神經(jīng)元256個,第二層64個,因此第二層的每個輸入有256個特征值,并產(chǎn)生64個輸出,相應(yīng)的W2的shape為[h1_num,h2_num],b2的shape為[h2_num]。輸出層W3的shape為[h2_num,10]。函數(shù)的其他部分與單層神經(jīng)網(wǎng)絡(luò)相同。

經(jīng)過運算多層的神經(jīng)網(wǎng)絡(luò)訓(xùn)練的準(zhǔn)確率不一定比單層的高,因為還涉及到訓(xùn)練的超參數(shù)的設(shè)置等多種因素。但是多層神經(jīng)網(wǎng)絡(luò)的運行速度比單層慢,越多層的神經(jīng)網(wǎng)絡(luò)意味著更加復(fù)雜的計算量。

全連接層函數(shù)

通過以上多層神經(jīng)網(wǎng)絡(luò)的定義可以看出兩個隱藏層與輸出層的構(gòu)建方法基本類似,都是定義對應(yīng)的變量W、b,在定義W時其shape為[輸出維度,輸出維度],因此可以將隱藏層與輸出層統(tǒng)一定義為一個全連接層函數(shù):

#定義一個通用的全連接層函數(shù)模型
def fcn_layer(inputs,in_dim,out_dim,activation=None):
  W=tf.Variable(tf.truncated_normal([in_dim,out_dim],stddev=0.1))
  b=tf.Variable(tf.zeros([out_dim]))
  Y=tf.matmul(inputs,W)+b
  if activation==None:
    output=Y
  else:
    output=activation(Y)
  return output
#構(gòu)建第一個隱藏層
Y1=fcn_layer(x,784,256,tf.nn.relu)
#構(gòu)建第二個隱藏層
Y2=fcn_layer(Y1,256,64,tf.nn.relu)
#構(gòu)建輸出層
Y3=fcn_layer(Y2,64,10)
pred=tf.nn.softmax(Y3)

其中inputs為本層的輸入,in_dim為本層的輸入維度,也就是上一層的輸出維度,out_dim為本層的輸出維度,activation為激活函數(shù),默認為None。將輸入與權(quán)重W叉乘再加上偏置值b得到Y(jié),如果定義了激活函數(shù),用激活函數(shù)處理Y,否則直接將Y賦給output輸出。

3、模型的保存與讀取

在模型訓(xùn)練結(jié)束后,如果希望下次繼續(xù)使用或訓(xùn)練模型則需要將儲存起來。

模型的儲存

首先需要定義模型數(shù)據(jù)的保存路徑:

import os
save_dir='D:/Temp/MachineLearning/ModelSaving/'    #定義模型的保存路徑
if not os.path.exists(save_dir):            #如果不存在該路徑則創(chuàng)建
  os.makedirs(save_dir)

定義儲存粒度與saver,所謂儲存粒度即每個幾輪數(shù)據(jù)進行一次儲存

save_step=5            #定義存儲粒度
 
saver=tf.train.Saver()      #定義saver

在每輪訓(xùn)練結(jié)束后進行判斷,每隔5輪儲存一次,儲存路徑中拼接輪數(shù)信息,

if epoch%save_step==0:
    saver.save(ss,os.path.join(save_dir,'mnist_fcn_{:02d}.ckpt'.format(epoch+1)))

在所有迭代訓(xùn)練執(zhí)行結(jié)束后,再整體儲存一次

saver.save(ss,os.path.join(save_dir,'mnist_fcn.ckpt'))

這樣就會在指定目錄下生成模型的保存文件:

模型的讀取

從定義的模型目錄中讀取存盤點數(shù)據(jù),并將其中的參數(shù)賦值給當(dāng)前的session,然后便可以直接利用session進行測試,其準(zhǔn)確率與保存時一致。

save_dir='D:/Temp/MachineLearning/ModelSaving/'    #定義模型的保存路徑
saver=tf.train.Saver()                 #定義saver
 
ss=tf.Session()
ss.run(tf.global_variables_initializer())
 
ckpt=tf.train.get_checkpoint_state(save_dir)      #讀取存盤點
if ckpt and ckpt.model_checkpoint_path:
  saver.restore(ss,ckpt.model_checkpoint_path)    #從存盤中恢復(fù)參數(shù)到當(dāng)前的session
  print('數(shù)據(jù)恢復(fù)從',ckpt.model_checkpoint_path)
 
test_res=accuracy.eval(session=ss,feed_dict={x:mnist.test.images,y:mnist.test.labels})
print('測試集的準(zhǔn)確率為:%.4f'%(test_res))

在讀取模型時有時候會遇到報錯:

NotFoundError (see above for traceback): Restoring from checkpoint failed. This is most likely due to a Variable name or other graph key that is missing from the checkpoint. Please ensure that you have not altered the graph expected based on the checkpoint.

這時只需重啟kernel即可。

通過圖來保存模型

也可以將訓(xùn)練好的模型以圖的形式保存為.pb文件,下次直接可以使用,但不可以繼續(xù)訓(xùn)練。

通過tf.train.write_graph函數(shù)來保存模型如下:

import tensorflow as tf
 
v=tf.Variable(1.0,'new_var')
with tf.Session() as ss:
  tf.train.write_graph(ss.graph_def,'D:\Temp\MachineLearning\ModelSaving\Graph',
            'test_graph.pb',as_text=False)

讀取圖文件并還原:

with tf.Session() as ss:
  with tf.gfile.GFile('D:/Temp\MachineLearning/ModelSaving/Graph/test_graph.pb','rb') as pb_file:
    graph_def=tf.GraphDef()
    graph_def.ParseFromString(pb_file.read())
    ss.graph.as_default()
    tf.import_graph_def(graph_def)
    print(graph_def)

更多關(guān)于Python相關(guān)內(nèi)容感興趣的讀者可查看本站專題:《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python加密解密算法與技巧總結(jié)》、《Python編碼操作技巧總結(jié)》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》及《Python入門與進階經(jīng)典教程

希望本文所述對大家Python程序設(shè)計有所幫助。

相關(guān)文章

  • python逐像素獲取柵格經(jīng)緯度分別保存在兩個矩陣中(代碼收藏)

    python逐像素獲取柵格經(jīng)緯度分別保存在兩個矩陣中(代碼收藏)

    這篇文章主要介紹了python逐像素獲取柵格經(jīng)緯度分別保存在兩個矩陣中的實現(xiàn)示例,建議收藏代碼總會用到,有需要的朋友可以借鑒參考下,希望能夠有所幫助
    2024-01-01
  • python生成可執(zhí)行exe控制Microsip自動填寫號碼并撥打功能

    python生成可執(zhí)行exe控制Microsip自動填寫號碼并撥打功能

    這篇文章主要介紹了python生成可執(zhí)行exe控制Microsip自動填寫號碼并撥打,在這需要注意一個問題,必須是已經(jīng)運行Microsip.exe文件,具體實現(xiàn)代碼跟隨小編一起看看吧
    2021-06-06
  • 跟老齊學(xué)Python之dict()的操作方法

    跟老齊學(xué)Python之dict()的操作方法

    這篇文章主要介紹了dict()的操作方法,由于dict的很多方法跟list類似,所以在詳細介紹dict的同時,也跟list做了對比,是篇非常不錯的文章,有需要的朋友參考下
    2014-09-09
  • pytorch中的hook機制register_forward_hook

    pytorch中的hook機制register_forward_hook

    這篇文章主要介紹了pytorch中的hook機制register_forward_hook,手動在forward之前注冊hook,hook在forward執(zhí)行以后被自動執(zhí)行,下面詳細的內(nèi)容介紹,需要的小伙伴可以參考一下
    2022-03-03
  • Python實現(xiàn)輕松提取Word中的圖片

    Python實現(xiàn)輕松提取Word中的圖片

    Microsoft Word是廣泛用于文檔編輯和處理的工具,有時候,可能需要從Word文檔中提取所有的圖片,以進行后續(xù)的處理或分析,本文主要介紹了如何使用Python實現(xiàn)這一操作,需要的可以參考下
    2024-01-01
  • 對python list 遍歷刪除的正確方法詳解

    對python list 遍歷刪除的正確方法詳解

    今天小編就為大家分享一篇對python list 遍歷刪除的正確方法詳解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-06-06
  • 使用pandas生成/讀取csv文件的方法實例

    使用pandas生成/讀取csv文件的方法實例

    在使用Pandas處理數(shù)據(jù)時,常見的讀取數(shù)據(jù)的方式時從Excel或CSV文件中獲取,這篇文章主要給大家介紹了關(guān)于如何使用pandas生成、讀取csv文件的相關(guān)資料,需要的朋友可以參考下
    2021-07-07
  • Pandas多個條件(AND,OR,NOT)中提取行

    Pandas多個條件(AND,OR,NOT)中提取行

    本文主要介紹了Pandas多個條件(AND,OR,NOT)中提取行,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-02-02
  • Python數(shù)據(jù)結(jié)構(gòu)之圖的應(yīng)用示例

    Python數(shù)據(jù)結(jié)構(gòu)之圖的應(yīng)用示例

    這篇文章主要介紹了Python數(shù)據(jù)結(jié)構(gòu)之圖的應(yīng)用,結(jié)合實例形式分析了Python數(shù)據(jù)結(jié)構(gòu)中圖的定義與遍歷算法相關(guān)操作技巧,需要的朋友可以參考下
    2018-05-05
  • python 文件下載之?dāng)帱c續(xù)傳的實現(xiàn)

    python 文件下載之?dāng)帱c續(xù)傳的實現(xiàn)

    用python進行文件下載的時候,一旦出現(xiàn)網(wǎng)絡(luò)波動問題,導(dǎo)致文件下載到一半。如果將下載不完全的文件刪掉,那么又需要從頭開始,如果連續(xù)網(wǎng)絡(luò)波動,是不是要頭禿了。本文提供斷點續(xù)傳下載工具方法,希望可以幫助到你
    2021-11-11

最新評論