python神經(jīng)網(wǎng)絡(luò)Keras實(shí)現(xiàn)LSTM及其參數(shù)量詳解
什么是LSTM
1、LSTM的結(jié)構(gòu)
我們可以看出,在n時(shí)刻,LSTM的輸入有三個(gè):
- 當(dāng)前時(shí)刻網(wǎng)絡(luò)的輸入值Xt;
- 上一時(shí)刻LSTM的輸出值ht-1;
- 上一時(shí)刻的單元狀態(tài)Ct-1。
LSTM的輸出有兩個(gè):
- 當(dāng)前時(shí)刻LSTM輸出值ht;
- 當(dāng)前時(shí)刻的單元狀態(tài)Ct。
2、LSTM獨(dú)特的門結(jié)構(gòu)
LSTM用兩個(gè)門來控制單元狀態(tài)cn的內(nèi)容:
- 遺忘門(forget gate),它決定了上一時(shí)刻的單元狀態(tài)cn-1有多少保留到當(dāng)前時(shí)刻;
- 輸入門(input gate),它決定了當(dāng)前時(shí)刻網(wǎng)絡(luò)的輸入c’n有多少保存到新的單元狀態(tài)cn中。
LSTM用一個(gè)門來控制當(dāng)前輸出值hn的內(nèi)容:
輸出門(output gate),它利用當(dāng)前時(shí)刻單元狀態(tài)cn對hn的輸出進(jìn)行控制。
3、LSTM參數(shù)量計(jì)算
a、遺忘門
遺忘門這里需要結(jié)合ht-1和Xt來決定上一時(shí)刻的單元狀態(tài)cn-1有多少保留到當(dāng)前時(shí)刻;
由圖我們可以得到,我們在這一環(huán)節(jié)需要計(jì)一個(gè)參數(shù)ft。
b、輸入門
輸入門這里需要結(jié)合ht-1和Xt來決定當(dāng)前時(shí)刻網(wǎng)絡(luò)的輸入c’n有多少保存到單元狀態(tài)cn中。
由圖我們可以得到,我們在這一環(huán)節(jié)需要計(jì)算兩個(gè)參數(shù),分別是it。
和C’t
里面需要訓(xùn)練的參數(shù)分別是Wi、bi、WC和bC。
在定義LSTM的時(shí)候我們會使用到一個(gè)參數(shù)叫做units,其實(shí)就是神經(jīng)元的個(gè)數(shù),也就是LSTM的輸出——ht的維度。
所以:
c、輸出門
輸出門利用當(dāng)前時(shí)刻單元狀態(tài)cn對hn的輸出進(jìn)行控制;
由圖我們可以得到,我們在這一環(huán)節(jié)需要計(jì)一個(gè)參數(shù)ot。
里面需要訓(xùn)練的參數(shù)分別是Wo和bo。在定義LSTM的時(shí)候我們會使用到一個(gè)參數(shù)叫做units,其實(shí)就是神經(jīng)元的個(gè)數(shù),也就是LSTM的輸出——ht的維度。所以:
d、全部參數(shù)量
所以所有的門總參數(shù)量為:
在Keras中實(shí)現(xiàn)LSTM
LSTM一般需要輸入兩個(gè)參數(shù)。
一個(gè)是unit、一個(gè)是input_shape。
LSTM(CELL_SIZE, input_shape = (TIME_STEPS,INPUT_SIZE))
unit用于指定神經(jīng)元的數(shù)量。
input_shape用于指定輸入的shape,分別指定TIME_STEPS和INPUT_SIZE。
實(shí)現(xiàn)代碼
import numpy as np from keras.models import Sequential from keras.layers import Input,Activation,Dense from keras.models import Model from keras.datasets import mnist from keras.layers.recurrent import LSTM from keras.utils import np_utils from keras.optimizers import Adam TIME_STEPS = 28 INPUT_SIZE = 28 BATCH_SIZE = 50 index_start = 0 OUTPUT_SIZE = 10 CELL_SIZE = 75 LR = 1e-3 (X_train,Y_train),(X_test,Y_test) = mnist.load_data() X_train = X_train.reshape(-1,28,28)/255 X_test = X_test.reshape(-1,28,28)/255 Y_train = np_utils.to_categorical(Y_train,num_classes= 10) Y_test = np_utils.to_categorical(Y_test,num_classes= 10) inputs = Input(shape=[TIME_STEPS,INPUT_SIZE]) x = LSTM(CELL_SIZE, input_shape = (TIME_STEPS,INPUT_SIZE))(inputs) x = Dense(OUTPUT_SIZE)(x) x = Activation("softmax")(x) model = Model(inputs,x) adam = Adam(LR) model.summary() model.compile(loss = 'categorical_crossentropy',optimizer = adam,metrics = ['accuracy']) for i in range(50000): X_batch = X_train[index_start:index_start + BATCH_SIZE,:,:] Y_batch = Y_train[index_start:index_start + BATCH_SIZE,:] index_start += BATCH_SIZE cost = model.train_on_batch(X_batch,Y_batch) if index_start >= X_train.shape[0]: index_start = 0 if i%100 == 0: cost,accuracy = model.evaluate(X_test,Y_test,batch_size=50) print("accuracy:",accuracy)
實(shí)現(xiàn)效果:
10000/10000 [==============================] - 3s 340us/step accuracy: 0.14040000014007092 10000/10000 [==============================] - 3s 310us/step accuracy: 0.6507000041007995 10000/10000 [==============================] - 3s 320us/step accuracy: 0.7740999992191792 10000/10000 [==============================] - 3s 305us/step accuracy: 0.8516999959945679 10000/10000 [==============================] - 3s 322us/step accuracy: 0.8669999945163727 10000/10000 [==============================] - 3s 324us/step accuracy: 0.889699995815754 10000/10000 [==============================] - 3s 307us/step
以上就是python神經(jīng)網(wǎng)絡(luò)Keras實(shí)現(xiàn)LSTM及其參數(shù)量詳解的詳細(xì)內(nèi)容,更多關(guān)于Keras實(shí)現(xiàn)LSTM參數(shù)量的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
基于Python實(shí)現(xiàn)新年倒計(jì)時(shí)
眼看馬上春節(jié)就要來臨了,所以滿懷期待的寫了一個(gè)Python新年倒計(jì)時(shí)的小工具!文中的示例代碼簡潔易懂,感興趣的小伙伴可以跟隨小編一起學(xué)習(xí)一下2023-01-01Python中的NumPy實(shí)用函數(shù)整理之percentile詳解
這篇文章主要介紹了Python中的NumPy實(shí)用函數(shù)整理之percentile詳解,NumPy函數(shù)percentile()用于計(jì)算指定維度上數(shù)組元素的第?n?個(gè)百分位數(shù),返回值為標(biāo)量或者數(shù)組,需要的朋友可以參考下2023-09-09關(guān)于Python的pymouse click 雙擊的問題
這篇文章主要介紹了關(guān)于Python的pymouse click 雙擊的問題,具有很好的參考價(jià)值,希望對大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-06-06python用pickle模塊實(shí)現(xiàn)“增刪改查”的簡易功能
本篇文章主要介紹了python用pickle模塊實(shí)現(xiàn)“增刪改查”的簡易功能,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下。2017-06-06python通過函數(shù)名調(diào)用函數(shù)的幾種場景
這篇文章主要介紹了python通過函數(shù)名調(diào)用函數(shù)的幾種場景,幫助大家更好的理解和使用python,感興趣的朋友可以了解下2020-09-09基于Python編寫將文本轉(zhuǎn)換為語音的簡易應(yīng)用
這篇文章主要介紹了如何使用Python編寫一個(gè)簡單的應(yīng)用程序,將文本轉(zhuǎn)換為語音,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以動(dòng)手嘗試一下2023-08-08python 創(chuàng)建一維的0向量實(shí)例
今天小編就為大家分享一篇python 創(chuàng)建一維的0向量實(shí)例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-12-12