淺談Tensorflow 動(dòng)態(tài)雙向RNN的輸出問(wèn)題
tf.nn.bidirectional_dynamic_rnn()
函數(shù):
def bidirectional_dynamic_rnn( cell_fw, # 前向RNN cell_bw, # 后向RNN inputs, # 輸入 sequence_length=None,# 輸入序列的實(shí)際長(zhǎng)度(可選,默認(rèn)為輸入序列的最大長(zhǎng)度) initial_state_fw=None, # 前向的初始化狀態(tài)(可選) initial_state_bw=None, # 后向的初始化狀態(tài)(可選) dtype=None, # 初始化和輸出的數(shù)據(jù)類(lèi)型(可選) parallel_iterations=None, swap_memory=False, time_major=False, # 決定了輸入輸出tensor的格式:如果為true, 向量的形狀必須為 `[max_time, batch_size, depth]`. # 如果為false, tensor的形狀必須為`[batch_size, max_time, depth]`. scope=None )
其中,
outputs為(output_fw, output_bw),是一個(gè)包含前向cell輸出tensor和后向cell輸出tensor組成的元組。假設(shè)
time_major=false,tensor的shape為[batch_size, max_time, depth]。實(shí)驗(yàn)中使用tf.concat(outputs, 2)將其拼接。
output_states為(output_state_fw, output_state_bw),包含了前向和后向最后的隱藏狀態(tài)的組成的元組。
output_state_fw和output_state_bw的類(lèi)型為L(zhǎng)STMStateTuple。
LSTMStateTuple由(c,h)組成,分別代表memory cell和hidden state。
返回值:
元組:(outputs, output_states)
這里還有最后的一個(gè)小問(wèn)題,output_states是一個(gè)元組的元組,處理方法是用c_fw,h_fw = output_state_fw和c_bw,h_bw = output_state_bw,最后再分別將c和h狀態(tài)concat起來(lái),用tf.contrib.rnn.LSTMStateTuple()函數(shù)生成decoder端的初始狀態(tài)
def encoding_layer(rnn_size,sequence_length,num_layers,rnn_inputs,keep_prob): # rnn_size: rnn隱層節(jié)點(diǎn)數(shù)量 # sequence_length: 數(shù)據(jù)的序列長(zhǎng)度 # num_layers:堆疊的rnn cell數(shù)量 # rnn_inputs: 輸入tensor # keep_prob: '''Create the encoding layer''' for layer in range(num_layers): with tf.variable_scope('encode_{}'.format(layer)): cell_fw = tf.contrib.rnn.LSTMCell(rnn_size,initializer=tf.random_uniform_initializer(-0.1,0.1,seed=2)) cell_fw = tf.contrib.rnn.DropoutWrapper(cell_fw,input_keep_prob=keep_prob) cell_bw = tf.contrib.rnn.LSTMCell(rnn_size,initializer=tf.random_uniform_initializer(-0.1,0.1,seed=2)) cell_bw = tf.contrib.rnn.DropoutWrapper(cell_bw,input_keep_prob = keep_prob) enc_output,enc_state = tf.nn.bidirectional_dynamic_rnn(cell_fw,cell_bw, rnn_inputs,sequence_length,dtype=tf.float32) # join outputs since we are using a bidirectional RNN enc_output = tf.concat(enc_output,2) return enc_output,enc_state
tf.nn.dynamic_rnn()
tf.nn.dynamic_rnn的返回值有兩個(gè):outputs和state
為了描述輸出的形狀,先介紹幾個(gè)變量,batch_size是輸入的這批數(shù)據(jù)的數(shù)量,max_time就是這批數(shù)據(jù)中序列的最長(zhǎng)長(zhǎng)度,如果輸入的三個(gè)句子,那max_time對(duì)應(yīng)的就是最長(zhǎng)句子的單詞數(shù)量,cell.output_size其實(shí)就是rnn cell中神經(jīng)元的個(gè)數(shù)。
例子來(lái)說(shuō)明其用法,假設(shè)你的RNN的輸入input是[2,20,128],其中2是batch_size,20是文本最大長(zhǎng)度,128是embedding_size,可以看出,有兩個(gè)example,我們假設(shè)第二個(gè)文本長(zhǎng)度只有13,剩下的7個(gè)是使用0-padding方法填充的。dynamic返回的是兩個(gè)參數(shù):outputs,state,其中outputs是[2,20,128],也就是每一個(gè)迭代隱狀態(tài)的輸出,state是由(c,h)組成的tuple,均為[batch,128]。
outputs. outputs是一個(gè)tensor
如果time_major==True,outputs形狀為 [max_time, batch_size, cell.output_size ](要求rnn輸入與rnn輸出形狀保持一致)
如果time_major==False(默認(rèn)),outputs形狀為 [ batch_size, max_time, cell.output_size ]
state. state是一個(gè)tensor。state是最終的狀態(tài),也就是序列中最后一個(gè)cell輸出的狀態(tài)。一般情況下state的形狀為 [batch_size, cell.output_size ],但當(dāng)輸入的cell為BasicLSTMCell時(shí),state的形狀為[2,batch_size, cell.output_size ],其中2也對(duì)應(yīng)著LSTM中的cell state和hidden state。
這里有關(guān)于LSTM的結(jié)構(gòu)問(wèn)題:
以上這篇淺談Tensorflow 動(dòng)態(tài)雙向RNN的輸出問(wèn)題就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Playwright中Web自動(dòng)化測(cè)試的實(shí)現(xiàn)
Playwright是一個(gè)現(xiàn)代的Web自動(dòng)化測(cè)試框架,本文主要介紹了Playwright中Web自動(dòng)化測(cè)試的實(shí)現(xiàn),具有一定的參考價(jià)值,感興趣的可以了解一下2024-03-03python GUI庫(kù)圖形界面開(kāi)發(fā)之PyQt5窗口類(lèi)QMainWindow詳細(xì)使用方法
這篇文章主要介紹了python GUI庫(kù)圖形界面開(kāi)發(fā)之PyQt5窗口類(lèi)QMainWindow詳細(xì)使用方法,需要的朋友可以參考下2020-02-02Python實(shí)現(xiàn)可設(shè)置持續(xù)運(yùn)行時(shí)間、線(xiàn)程數(shù)及時(shí)間間隔的多線(xiàn)程異步post請(qǐng)求功能
這篇文章主要介紹了Python實(shí)現(xiàn)可設(shè)置持續(xù)運(yùn)行時(shí)間、線(xiàn)程數(shù)及時(shí)間間隔的多線(xiàn)程異步post請(qǐng)求功能,涉及Python網(wǎng)絡(luò)請(qǐng)求的創(chuàng)建、發(fā)送、響應(yīng)、處理等相關(guān)操作技巧,需要的朋友可以參考下2018-01-01Python實(shí)現(xiàn)壓縮文件夾與解壓縮zip文件的方法
這篇文章主要介紹了Python實(shí)現(xiàn)壓縮文件夾與解壓縮zip文件的方法,涉及Python使用zipfile模塊進(jìn)行zip文件壓縮與解壓縮相關(guān)操作技巧,需要的朋友可以參考下2018-09-09pygame編寫(xiě)音樂(lè)播放器的實(shí)現(xiàn)代碼示例
這篇文章主要介紹了pygame編寫(xiě)音樂(lè)播放器的實(shí)現(xiàn)代碼示例,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-11-11如何在conda虛擬環(huán)境中配置cuda+cudnn+pytorch深度學(xué)習(xí)環(huán)境
這篇文章主要介紹了如何在conda虛擬環(huán)境中配置cuda+cudnn+pytorch深度學(xué)習(xí)環(huán)境,想在服務(wù)器上配置深度學(xué)習(xí)的環(huán)境,看了很多資料后總結(jié)出來(lái)了對(duì)于新手比較友好的配置流程,需要的朋友可以參考下2023-03-03python中的正則表達(dá)式,貪婪匹配與非貪婪匹配方式
這篇文章主要介紹了python中的正則表達(dá)式,貪婪匹配與非貪婪匹配方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-01-01Python 使用ConfigParser操作ini配置文件
這篇文章主要介紹了Python 使用ConfigParser操作ini配置文件的相關(guān)資料,需要的朋友可以參考下2023-05-05