TensorFlow實(shí)現(xiàn)RNN循環(huán)神經(jīng)網(wǎng)絡(luò)
RNN(recurrent neural Network)循環(huán)神經(jīng)網(wǎng)絡(luò)
主要用于自然語言處理(nature language processing,NLP)
RNN主要用途是處理和預(yù)測序列數(shù)據(jù)
RNN廣泛的用于 語音識別、語言模型、機(jī)器翻譯
RNN的來源就是為了刻畫一個(gè)序列當(dāng)前的輸出與之前的信息影響后面節(jié)點(diǎn)的輸出
RNN 是包含循環(huán)的網(wǎng)絡(luò),允許信息的持久化。
RNN會記憶之前的信息,并利用之前的信息影響后面節(jié)點(diǎn)的輸出。
RNN的隱藏層之間的節(jié)點(diǎn)是有相連的,隱藏層的輸入不僅僅包括輸入層的輸出,還包括上一時(shí)刻隱藏層的輸出。
RNN會對于每一個(gè)時(shí)刻的輸入結(jié)合當(dāng)前模型的狀態(tài)給出一個(gè)輸出。
RNN理論上被看作同一個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)被無限復(fù)制的結(jié)果,目前RNN無法做到真正的無限循環(huán),一般以循環(huán)體展開。
RNN圖:

RNN最擅長的問題是與時(shí)間序列相關(guān)的。
RNN對于一個(gè)序列數(shù)據(jù),可以將序列上不同時(shí)刻的數(shù)據(jù)依次輸入循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入層,而輸出可以是對序列中下一個(gè)時(shí)刻的預(yù)測,也可以是對當(dāng)前時(shí)刻信息的處理結(jié)果。
RNN 的關(guān)鍵點(diǎn)之一就是他們可以用來連接先前的信息到當(dāng)前的任務(wù)上
展開后的RNN:

循環(huán)體網(wǎng)絡(luò)中的參數(shù)在不同的時(shí)刻也是共享的。
RNN的狀態(tài)是通過一個(gè)向量來表示,這個(gè)向量的維度也稱為RNN隱藏層的大小。
假如該向量為h,輸入為x,激活函數(shù)為tanh,則有如圖:

前向傳播的計(jì)算過程:

理論上RNN可以支持任意長度的序列,但是如果序列太長會導(dǎo)致優(yōu)化時(shí)實(shí)現(xiàn)梯度消失的問題,一般會設(shè)置最大長度,超長會對其截?cái)唷?/p>
代碼實(shí)現(xiàn)簡單的RNN:
import numpy as np
# 定義RNN的參數(shù)。
X = [1,2]
state = [0.0, 0.0]
w_cell_state = np.asarray([[0.1, 0.2], [0.3, 0.4]])
w_cell_input = np.asarray([0.5, 0.6])
b_cell = np.asarray([0.1, -0.1])
w_output = np.asarray([[1.0], [2.0]])
b_output = 0.1
# 執(zhí)行前向傳播過程。
for i in range(len(X)):
before_activation = np.dot(state, w_cell_state) + X[i] * w_cell_input + b_cell
state = np.tanh(before_activation)
final_output = np.dot(state, w_output) + b_output
print ("before activation: ", before_activation)
print ("state: ", state)
print ("output: ", final_output)
LSTM(long short-term memory)長短時(shí)記憶網(wǎng)絡(luò):
LSTM解決了RNN不支持長期依賴的問題,使其大幅度提升記憶時(shí)長。
RNN被成功應(yīng)用的關(guān)鍵就是LSTM。
LSTM是一種擁有三個(gè)“門”結(jié)構(gòu)的特殊網(wǎng)絡(luò)結(jié)構(gòu)。

粉色的圈代表 pointwise 的操作,諸如向量的和,而黃色的矩陣就是學(xué)習(xí)到的神經(jīng)網(wǎng)絡(luò)層。合在一起的線表示向量的連接,分開的線表示內(nèi)容被復(fù)制,然后分發(fā)到不同的位置。
LSTM核心思想:
LSTM 的關(guān)鍵就是細(xì)胞狀態(tài),水平線在圖上方貫穿運(yùn)行。
細(xì)胞狀態(tài)類似于傳送帶。直接在整個(gè)鏈上運(yùn)行,只有一些少量的線性交互,信息在上面流傳保持不變會很容易。

LSTM 有通過精心設(shè)計(jì)的稱作為“門”的結(jié)構(gòu)來去除或者增加信息到細(xì)胞狀態(tài)的能力。
“門”是一種讓信息選擇式通過的方法,包含一個(gè)sigmoid 神經(jīng)網(wǎng)絡(luò)層和一個(gè) pointwise (按位做乘法)的操作。
之所以稱之為“門”,因?yàn)?strong>使用Sigmoid 作為激活函數(shù)的層會輸出 0 到 1 之間的數(shù)值,描述每個(gè)部分有多少信息量可以通過這個(gè)結(jié)構(gòu)。
0 代表“不許任何量通過”,1 就指“允許任意量通過”!
LSTM的公式:

代碼實(shí)現(xiàn):
import tensorflow as tf
# 定義一個(gè)LSTM結(jié)構(gòu)
lstm = rnn_cell.BasicLSTMCell(lstm_hidden_size)
# 將LSTM中的狀態(tài)初始化為全0數(shù)組,每次使用一個(gè)batch的訓(xùn)練樣本
state = lstm.zero_state(batch_size,tf.float32)
# 定義損失函數(shù)
loss = 0.0
# 規(guī)定一個(gè)最大序列長度
for i in range(num_steps):
# 復(fù)用之前定義的變量
if i > 0:
tf.get_variable_scope().reuse_variables()
# 將當(dāng)前輸入和前一時(shí)刻的狀態(tài)傳入定義的LSTM結(jié)構(gòu),得到輸出和更新后的狀態(tài)
lstm_output, state = lstm(current_input,state)
# 將當(dāng)前時(shí)刻的LSTM結(jié)構(gòu)的輸出傳入一個(gè)全連接層得到最后的輸出。
final_output = fully_connectd(lstm_output)
# 計(jì)算當(dāng)前時(shí)刻輸出的損失
loss += calc_loss(final_output,expected_output)
雙向循環(huán)神經(jīng)網(wǎng)絡(luò)
經(jīng)典的循環(huán)神經(jīng)網(wǎng)絡(luò)中的狀態(tài)傳輸是從前往后單向的,然而當(dāng)前時(shí)刻的輸出不僅和之前的狀態(tài)有關(guān)系,也和之后的狀態(tài)相關(guān)。
雙向循環(huán)神經(jīng)網(wǎng)絡(luò)能解決狀態(tài)單向傳輸?shù)膯栴}。
雙向循環(huán)神經(jīng)網(wǎng)絡(luò)是由兩個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)反向上下疊加在一起組成,兩個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)的狀態(tài)共同決定輸出。
也就是時(shí)間t時(shí)的輸出不僅僅取決于過去的記憶,也同樣取決于后面發(fā)生的事情。

深層(雙向)循環(huán)神經(jīng)網(wǎng)絡(luò)
深層循環(huán)神經(jīng)網(wǎng)絡(luò)似于雙向循環(huán)神經(jīng)網(wǎng)絡(luò),只不過是每個(gè)時(shí)長內(nèi)都有多層。
深層循環(huán)神經(jīng)網(wǎng)絡(luò)有更強(qiáng)的學(xué)習(xí)能力。
深層循環(huán)神經(jīng)網(wǎng)絡(luò)在每個(gè)時(shí)刻上將循環(huán)體結(jié)構(gòu)復(fù)制多次,和卷積神經(jīng)網(wǎng)絡(luò)類似,每一層循環(huán)體中的參數(shù)是一致的,不同層的參數(shù)可以不同。

TensorFlow中使用MultiRNNCell實(shí)現(xiàn)深層循環(huán)神經(jīng)網(wǎng)絡(luò)中每一個(gè)時(shí)刻的前向傳播過程。剩下的步驟和RNN的構(gòu)建步驟相同。
RNN中的dropout
通過dropout方法可以上卷積神經(jīng)網(wǎng)絡(luò)更加健壯,類似的用在RNN上也能取得同樣的效果。
類似卷積神經(jīng)網(wǎng)絡(luò),RNN只在最后的全連接層使用dropout。
RNN一般只在不同層循環(huán)體結(jié)構(gòu)中使用dropout,不在同層循環(huán)體使用。
同一時(shí)刻t中,不同循環(huán)體之間會使用dropout。
在TensorFlow中,使用DropoutWrapper類實(shí)現(xiàn)dropout功能。
通過input_keep_prob參數(shù)控制輸入的dropout概率
通過output_keep_prob參數(shù)控制輸出的dropout概率
TensorFlow樣例實(shí)現(xiàn)RNN語言模型
代碼:
import numpy as np
import tensorflow as tf
import reader
DATA_PATH = "../datasets/PTB/data"
HIDDEN_SIZE = 200 # 隱藏層規(guī)模
NUM_LAYERS = 2 # 深層RNN中的LSTM結(jié)構(gòu)的層數(shù)
VOCAB_SIZE = 10000 # 單詞標(biāo)識符個(gè)數(shù)
LEARNING_RATE = 1.0 # 學(xué)習(xí)速率
TRAIN_BATCH_SIZE = 20 # 訓(xùn)練數(shù)據(jù)大小
TRAIN_NUM_STEP = 35 # 訓(xùn)練數(shù)據(jù)截?cái)嚅L度
# 測試時(shí)不需要截?cái)?
EVAL_BATCH_SIZE = 1 # 測試數(shù)據(jù)大小
EVAL_NUM_STEP = 1 # 測試數(shù)據(jù)截?cái)嚅L度
NUM_EPOCH = 2 # 使用訓(xùn)練數(shù)據(jù)輪數(shù)
KEEP_PROB = 0.5 # 節(jié)點(diǎn)不被dropout
MAX_GRAD_NORM = 5 # 控制梯度膨脹參數(shù)
# 定義一個(gè)類來描述模型結(jié)構(gòu)。
class PTBModel (object):
def __init__(self, is_training, batch_size, num_steps):
self.batch_size = batch_size
self.num_steps = num_steps
# 定義輸入層。
self.input_data = tf.placeholder (tf.int32, [batch_size, num_steps])
self.targets = tf.placeholder (tf.int32, [batch_size, num_steps])
# 定義使用LSTM結(jié)構(gòu)及訓(xùn)練時(shí)使用dropout。
lstm_cell = tf.contrib.rnn.BasicLSTMCell (HIDDEN_SIZE)
if is_training:
lstm_cell = tf.contrib.rnn.DropoutWrapper (lstm_cell, output_keep_prob=KEEP_PROB)
cell = tf.contrib.rnn.MultiRNNCell ([lstm_cell] * NUM_LAYERS)
# 初始化最初的狀態(tài)。
self.initial_state = cell.zero_state (batch_size, tf.float32)
embedding = tf.get_variable ("embedding", [VOCAB_SIZE, HIDDEN_SIZE])
# 將原本單詞ID轉(zhuǎn)為單詞向量。
inputs = tf.nn.embedding_lookup (embedding, self.input_data)
if is_training:
inputs = tf.nn.dropout (inputs, KEEP_PROB)
# 定義輸出列表。
outputs = []
state = self.initial_state
with tf.variable_scope ("RNN"):
for time_step in range (num_steps):
if time_step > 0: tf.get_variable_scope ().reuse_variables ()
cell_output, state = cell (inputs[:, time_step, :], state)
outputs.append (cell_output)
output = tf.reshape (tf.concat (outputs, 1), [-1, HIDDEN_SIZE])
weight = tf.get_variable ("weight", [HIDDEN_SIZE, VOCAB_SIZE])
bias = tf.get_variable ("bias", [VOCAB_SIZE])
logits = tf.matmul (output, weight) + bias
# 定義交叉熵?fù)p失函數(shù)和平均損失。
loss = tf.contrib.legacy_seq2seq.sequence_loss_by_example (
[logits],
[tf.reshape (self.targets, [-1])],
[tf.ones ([batch_size * num_steps], dtype=tf.float32)])
self.cost = tf.reduce_sum (loss) / batch_size
self.final_state = state
# 只在訓(xùn)練模型時(shí)定義反向傳播操作。
if not is_training: return
trainable_variables = tf.trainable_variables ()
# 控制梯度大小,定義優(yōu)化方法和訓(xùn)練步驟。
grads, _ = tf.clip_by_global_norm (tf.gradients (self.cost, trainable_variables), MAX_GRAD_NORM)
optimizer = tf.train.GradientDescentOptimizer (LEARNING_RATE)
self.train_op = optimizer.apply_gradients (zip (grads, trainable_variables))
# 使用給定的模型model在數(shù)據(jù)data上運(yùn)行train_op并返回在全部數(shù)據(jù)上的perplexity值
def run_epoch(session, model, data, train_op, output_log, epoch_size):
total_costs = 0.0
iters = 0
state = session.run(model.initial_state)
# 訓(xùn)練一個(gè)epoch。
for step in range(epoch_size):
x, y = session.run(data)
cost, state, _ = session.run([model.cost, model.final_state, train_op],
{model.input_data: x, model.targets: y, model.initial_state: state})
total_costs += cost
iters += model.num_steps
if output_log and step % 100 == 0:
print("After %d steps, perplexity is %.3f" % (step, np.exp(total_costs / iters)))
return np.exp(total_costs / iters)
# 定義主函數(shù)并執(zhí)行
def main():
train_data, valid_data, test_data, _ = reader.ptb_raw_data(DATA_PATH)
# 計(jì)算一個(gè)epoch需要訓(xùn)練的次數(shù)
train_data_len = len(train_data)
train_batch_len = train_data_len // TRAIN_BATCH_SIZE
train_epoch_size = (train_batch_len - 1) // TRAIN_NUM_STEP
valid_data_len = len(valid_data)
valid_batch_len = valid_data_len // EVAL_BATCH_SIZE
valid_epoch_size = (valid_batch_len - 1) // EVAL_NUM_STEP
test_data_len = len(test_data)
test_batch_len = test_data_len // EVAL_BATCH_SIZE
test_epoch_size = (test_batch_len - 1) // EVAL_NUM_STEP
initializer = tf.random_uniform_initializer(-0.05, 0.05)
with tf.variable_scope("language_model", reuse=None, initializer=initializer):
train_model = PTBModel(True, TRAIN_BATCH_SIZE, TRAIN_NUM_STEP)
with tf.variable_scope("language_model", reuse=True, initializer=initializer):
eval_model = PTBModel(False, EVAL_BATCH_SIZE, EVAL_NUM_STEP)
# 訓(xùn)練模型。
with tf.Session() as session:
tf.global_variables_initializer().run()
train_queue = reader.ptb_producer(train_data, train_model.batch_size, train_model.num_steps)
eval_queue = reader.ptb_producer(valid_data, eval_model.batch_size, eval_model.num_steps)
test_queue = reader.ptb_producer(test_data, eval_model.batch_size, eval_model.num_steps)
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess=session, coord=coord)
for i in range(NUM_EPOCH):
print("In iteration: %d" % (i + 1))
run_epoch(session, train_model, train_queue, train_model.train_op, True, train_epoch_size)
valid_perplexity = run_epoch(session, eval_model, eval_queue, tf.no_op(), False, valid_epoch_size)
print("Epoch: %d Validation Perplexity: %.3f" % (i + 1, valid_perplexity))
test_perplexity = run_epoch(session, eval_model, test_queue, tf.no_op(), False, test_epoch_size)
print("Test Perplexity: %.3f" % test_perplexity)
coord.request_stop()
coord.join(threads)
if __name__ == "__main__":
main()
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- 深度學(xué)習(xí)TextRNN的tensorflow1.14實(shí)現(xiàn)示例
- python循環(huán)神經(jīng)網(wǎng)絡(luò)RNN函數(shù)tf.nn.dynamic_rnn使用
- python人工智能tensorflow構(gòu)建循環(huán)神經(jīng)網(wǎng)絡(luò)RNN
- Python使用循環(huán)神經(jīng)網(wǎng)絡(luò)解決文本分類問題的方法詳解
- 基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)實(shí)現(xiàn)影評情感分類
- 基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的古詩生成器
- 循環(huán)神經(jīng)網(wǎng)絡(luò)TextRNN實(shí)現(xiàn)情感短文本分類任務(wù)
相關(guān)文章
Python Pygame實(shí)戰(zhàn)之水果忍者游戲的實(shí)現(xiàn)
大家還記得水果忍者這個(gè)游戲嗎?想當(dāng)年,這也是個(gè)風(fēng)靡全國的游戲,基本每個(gè)人都玩過。今天小編就用Python中的Pygame庫復(fù)刻這一經(jīng)典游戲,需要的可以參考一下2022-02-02
Python機(jī)器學(xué)習(xí)應(yīng)用之基于LightGBM的分類預(yù)測篇解讀
這篇文章我們繼續(xù)學(xué)習(xí)一下GBDT模型的另一個(gè)進(jìn)化版本:LightGBM,LigthGBM是boosting集合模型中的新進(jìn)成員,由微軟提供,它和XGBoost一樣是對GBDT的高效實(shí)現(xiàn),原理上它和GBDT及XGBoost類似,都采用損失函數(shù)的負(fù)梯度作為當(dāng)前決策樹的殘差近似值,去擬合新的決策樹2022-01-01
Keras自動下載的數(shù)據(jù)集/模型存放位置介紹
這篇文章主要介紹了Keras自動下載的數(shù)據(jù)集/模型存放位置介紹,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-06-06
使用python+pygame實(shí)現(xiàn)中秋節(jié)動畫效果
馬上就要中秋節(jié)了,使用python可以實(shí)現(xiàn)中秋節(jié)動畫效果,包括月亮、兔子和煙花嗎?當(dāng)然是可以的,那該如何實(shí)現(xiàn)呢?這篇文章我們主要使用pygame來實(shí)現(xiàn),文中有詳細(xì)的代碼示例供大家參考,需要的朋友可以參考下2023-09-09
Python 代碼在函數(shù)中運(yùn)行得更快的原因解析
我們知道,python 是一種解釋型語言,它會逐行讀取并執(zhí)行代碼,小伙伴們可能會有這個(gè)疑問:為什么在函數(shù)中運(yùn)行的 Python 代碼速度更快,今天這篇文章將會解答大家心中的疑惑2023-09-09
Python獲取Redis所有Key以及內(nèi)容的方法
今天小編就為大家分享一篇Python獲取Redis所有Key以及內(nèi)容的方法,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-02-02

