欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

TensorFlow實(shí)現(xiàn)Softmax回歸模型

 更新時(shí)間:2018年03月09日 11:33:03   作者:marsjhao  
這篇文章主要介紹了TensorFlow實(shí)現(xiàn)Softmax回歸模型,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下

一、概述及完整代碼

對(duì)MNIST(MixedNational Institute of Standard and Technology database)這個(gè)非常簡(jiǎn)單的機(jī)器視覺(jué)數(shù)據(jù)集,Tensorflow為我們進(jìn)行了方便的封裝,可以直接加載MNIST數(shù)據(jù)成我們期望的格式.本程序使用Softmax Regression訓(xùn)練手寫(xiě)數(shù)字識(shí)別的分類(lèi)模型.

先看完整代碼:

import tensorflow as tf 
from tensorflow.examples.tutorials.mnist import input_data 
 
mnist = input_data.read_data_sets("MNIST_data", one_hot=True) 
print(mnist.train.images.shape, mnist.train.labels.shape) 
print(mnist.test.images.shape, mnist.test.labels.shape) 
print(mnist.validation.images.shape, mnist.validation.labels.shape) 
 
#構(gòu)建計(jì)算圖 
x = tf.placeholder(tf.float32, [None, 784]) 
W = tf.Variable(tf.zeros([784, 10])) 
b = tf.Variable(tf.zeros([10])) 
y = tf.nn.softmax(tf.matmul(x, W) + b) 
y_ = tf.placeholder(tf.float32, [None, 10]) 
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) 
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 
 
#在會(huì)話(huà)sess中啟動(dòng)圖 
sess = tf.InteractiveSession() #創(chuàng)建InteractiveSession對(duì)象 
tf.global_variables_initializer().run() #全局參數(shù)初始化器 
for i in range(1000): 
 batch_xs, batch_ys = mnist.train.next_batch(100) 
 train_step.run({x: batch_xs, y_: batch_ys}) 
 
#測(cè)試驗(yàn)證階段 
#沿著第1條軸方向取y和y_的最大值的索引并判斷是否相等 
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1)) 
#轉(zhuǎn)換bool型tensor為float32型tensor并求平均即得到正確率 
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 
print(accuracy.eval({x: mnist.test.images, y_: mnist.test.labels})) 

二、詳細(xì)解讀

首先看一下使用TensorFlow進(jìn)行算法設(shè)計(jì)訓(xùn)練的核心步驟

1.定義算法公式,也就是神經(jīng)網(wǎng)絡(luò)forward時(shí)的計(jì)算;

2.定義loss,選定優(yōu)化器,并制定優(yōu)化器優(yōu)化loss;

3.在訓(xùn)練集上迭代訓(xùn)練算法模型;

4.在測(cè)試集或驗(yàn)證集上對(duì)訓(xùn)練得到的模型進(jìn)行準(zhǔn)確率評(píng)測(cè).

首先創(chuàng)建一個(gè)Placeholder,即輸入張量數(shù)據(jù)的地方,第一個(gè)參數(shù)是數(shù)據(jù)類(lèi)型dtype,第二個(gè)參數(shù)是tensor的形狀shape.接下來(lái)創(chuàng)建SoftmaxRegression模型中的weights(W)和biases(b)的Variable對(duì)象,不同于存儲(chǔ)數(shù)據(jù)的tensor一旦使用掉就會(huì)消失,Variable在模型訓(xùn)練迭代中是持久存在的,并且在每輪迭代中被更新Variable初始化可以是常量或隨機(jī)值.接下來(lái)實(shí)現(xiàn)模型算法y = softmax(Wx + b),TensorFlow語(yǔ)言只需要一行代碼,tf.nn包含了大量神經(jīng)網(wǎng)絡(luò)的組件,頭tf.matmul是矩陣乘法函數(shù).TensorFlow將模型中的forward和backward的內(nèi)容都自動(dòng)實(shí)現(xiàn),只要定義好loss,訓(xùn)練的時(shí)候會(huì)自動(dòng)求導(dǎo)并進(jìn)行梯度下降,完成對(duì)模型參數(shù)的自動(dòng)學(xué)習(xí).定義損失函數(shù)lossfunction來(lái)描述分類(lèi)精度,對(duì)于多分類(lèi)問(wèn)題通常使用cross-entropy交叉熵.先定義一個(gè)placeholder輸入真實(shí)的label,tf.reduce_sum和tf.reduce_mean的功能分別是求和和求平均.構(gòu)造完損失函數(shù)cross-entropy后,再定義一個(gè)優(yōu)化算法即可開(kāi)始訓(xùn)練.我們采用隨機(jī)梯度下降SGD,定義好后TensorFlow會(huì)自動(dòng)添加許多運(yùn)算操作來(lái)實(shí)現(xiàn)反向傳播和梯度下降,而給我們提供的是一個(gè)封裝好的優(yōu)化器,只需要每輪迭代時(shí)feed數(shù)據(jù)給它就好.設(shè)置好學(xué)習(xí)率.

構(gòu)造階段完成后, 才能啟動(dòng)圖. 啟動(dòng)圖的第一步是創(chuàng)建一個(gè) Session 對(duì)象或InteractiveSession對(duì)象, 如果無(wú)任何創(chuàng)建參數(shù), 會(huì)話(huà)構(gòu)造器將啟動(dòng)默認(rèn)圖.創(chuàng)建InteractiveSession對(duì)象會(huì)這個(gè)Session注冊(cè)為默認(rèn)的Session,之后的運(yùn)算也默認(rèn)跑在這個(gè)Session里面,不同Session之間的數(shù)據(jù)和運(yùn)算應(yīng)該是相互獨(dú)立的.下一步使用TensorFlow的全局參數(shù)初始化器tf.global_variables_initializer病直接執(zhí)行它的run方法(這個(gè)全局參數(shù)初始化器應(yīng)該是1.0.0版本中的新特性,在之前0.10.0版本測(cè)試不通過(guò)).

至此,以上定義的所有公式其實(shí)只是Computation Graph,代碼執(zhí)行到這時(shí),計(jì)算還沒(méi)有實(shí)際發(fā)生,只有等調(diào)用run方法并feed數(shù)據(jù)時(shí)計(jì)算才真正執(zhí)行.

隨后一步,就可以開(kāi)始迭代地執(zhí)行訓(xùn)練操作train_step.這里每次都從訓(xùn)練集中隨機(jī)抽取100條樣本構(gòu)成一個(gè)mini-batch,并feed給placeholder.

完成迭代訓(xùn)練后,就可以對(duì)模型的準(zhǔn)確率進(jìn)行驗(yàn)證.比較y和y_在各個(gè)測(cè)試樣本中最大值所在的索引,然后轉(zhuǎn)換為float32型tensor后求平均即可得到正確率.多次測(cè)試后得到在測(cè)試集上的正確率為92%左右.還是比較理想的結(jié)果.

三、其他補(bǔ)充

1.Sesssion類(lèi)和InteractiveSession類(lèi)

對(duì)于product =tf.matmul(matrix1, matrix2),調(diào)用 sess 的 'run()' 方法來(lái)執(zhí)行矩陣乘法 op, 傳入 'product' 作為該方法的參數(shù).上面提到, 'product' 代表了矩陣乘法 op 的輸出, 傳入它是向方法表明, 我們希望取回矩陣乘法 op 的輸出.整個(gè)執(zhí)行過(guò)程是自動(dòng)化的, 會(huì)話(huà)負(fù)責(zé)傳遞op 所需的全部輸入. op 通常是并發(fā)執(zhí)行的.函數(shù)調(diào)用 'run(product)' 觸發(fā)了圖中三個(gè) op (兩個(gè)常量 op 和一個(gè)矩陣乘法 op)的執(zhí)行.返回值 'result' 是一個(gè) numpy的`ndarray`對(duì)象.

Session 對(duì)象在使用完后需要關(guān)閉以釋放資源sess.close(). 除了顯式調(diào)用 close 外, 也可以使用"with" 代碼塊 來(lái)自動(dòng)完成關(guān)閉動(dòng)作.

with tf.Session() as sess: 
 result = sess.run([product]) 
 print result 

為了便于使用諸如 IPython 之類(lèi)的 Python 交互環(huán)境, 可以使用InteractiveSession代替 Session 類(lèi), 使用 Tensor.eval()和 Operation.run()方法代替 Session.run(). 這樣可以避免使用一個(gè)變量來(lái)持有會(huì)話(huà).

# 進(jìn)入一個(gè)交互式 TensorFlow 會(huì)話(huà). 
import tensorflow as tf 
sess = tf.InteractiveSession() 
x = tf.Variable([1.0, 2.0]) 
a = tf.constant([3.0, 3.0]) 
# 使用初始化器 initializer op 的 run() 方法初始化 'x' 
x.initializer.run() 
# 增加一個(gè)減法 sub op, 從 'x' 減去 'a'. 運(yùn)行減法 op, 輸出結(jié)果 
sub = tf.sub(x, a) 
print sub.eval() 
# ==> [-2. -1.] 

2.tf.reduce_sum

首先,tf.reduce_X一系列運(yùn)算操作(operation)是實(shí)現(xiàn)對(duì)一個(gè)tensor各種減少維度的數(shù)學(xué)計(jì)算.

tf.reduce_sum(input_tensor, reduction_indices=None,keep_dims=False, name=None)

運(yùn)算功能:沿著給定維度reduction_indices的方向降低input_tensor的維度,除非keep_dims=True,tensor的秩在reduction_indices上減1,被降低的維度的長(zhǎng)度為1.如果reduction_indices沒(méi)有傳入?yún)?shù),所有維度都降低,返回只含有1個(gè)元素的tensor.運(yùn)算最終返回降維后的tensor.

演示代碼:

# 'x' is [[1, 1, 1] 
#   [1, 1, 1]] 
tf.reduce_sum(x) ==> 6 
tf.reduce_sum(x, 0) ==> [2, 2, 2] 
tf.reduce_sum(x, 1) ==> [3, 3] 
tf.reduce_sum(x, 1, keep_dims=True) ==> [[3], [3]] 
tf.reduce_sum(x, [0, 1]) ==> 6 

3.tf.reduce_mean

tf.reduce_mean(input_tensor, reduction_indices=None,keep_dims=False, name=None)

運(yùn)算功能:將input_tensor沿著給定維度reduction_indices減少維度,除非keep_dims=True,tensor的秩在reduction_indices上減1,被降低的維度的長(zhǎng)度為1.如果reduction_indices沒(méi)有傳入?yún)?shù),所有維度都降低,返回只含有1個(gè)元素的tensor.運(yùn)算最終返回降維后的tensor.

演示代碼:

# 'x' is [[1., 1. ] 
#   [2., 2.]] 
tf.reduce_mean(x) ==> 1.5 
tf.reduce_mean(x, 0) ==> [1.5, 1.5] 
tf.reduce_mean(x, 1) ==> [1., 2.] 

4.tf.argmax

tf.argmax(input, dimension, name=None)

運(yùn)算功能:返回input在指定維度下的最大值的索引.返回類(lèi)型為int64.

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • 基于Python實(shí)現(xiàn)自動(dòng)摳圖小程序

    基于Python實(shí)現(xiàn)自動(dòng)摳圖小程序

    這篇文章主要為了大家利用用Python制作一款界面化的摳圖小程序,文中的示例代碼講解詳細(xì),對(duì)我們學(xué)習(xí)Python有一定的幫助,感興趣的可以學(xué)習(xí)一下
    2022-01-01
  • Pycharm連接遠(yuǎn)程服務(wù)器過(guò)程圖解

    Pycharm連接遠(yuǎn)程服務(wù)器過(guò)程圖解

    這篇文章主要介紹了Pycharm連接遠(yuǎn)程服務(wù)器過(guò)程圖解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-04-04
  • Python設(shè)置默認(rèn)編碼為utf8的方法

    Python設(shè)置默認(rèn)編碼為utf8的方法

    這篇文章主要介紹了Python設(shè)置默認(rèn)編碼為utf8的方法,結(jié)合實(shí)例形式分析了Python針對(duì)文件編碼的設(shè)置方法與相關(guān)注意事項(xiàng),需要的朋友可以參考下
    2016-07-07
  • Python實(shí)現(xiàn)從概率分布中隨機(jī)采樣

    Python實(shí)現(xiàn)從概率分布中隨機(jī)采樣

    這篇文章主要介紹了通過(guò)幾個(gè)機(jī)器學(xué)習(xí)中最常用的概率分布為例,來(lái)看看如何從一個(gè)概率分布中采樣,文章中的代碼對(duì)我們的工作或?qū)W習(xí)具有一定價(jià)值,感興趣的朋友可以了解一下
    2021-12-12
  • python爬蟲(chóng)之百度API調(diào)用方法

    python爬蟲(chóng)之百度API調(diào)用方法

    下面小編就為大家?guī)?lái)一篇python爬蟲(chóng)之百度API調(diào)用方法。小編覺(jué)得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧
    2017-06-06
  • Python實(shí)現(xiàn)帶GUI界面的手寫(xiě)數(shù)字識(shí)別

    Python實(shí)現(xiàn)帶GUI界面的手寫(xiě)數(shù)字識(shí)別

    這篇文章主要介紹了如何通過(guò)Python實(shí)現(xiàn)帶GUI界面的手寫(xiě)數(shù)字識(shí)別,文中的示例代碼講解詳細(xì),對(duì)我們學(xué)習(xí)Python有一定的幫助,感興趣的可以了解一下
    2022-01-01
  • 解決pycharm修改代碼后第一次運(yùn)行不生效的問(wèn)題

    解決pycharm修改代碼后第一次運(yùn)行不生效的問(wèn)題

    這篇文章主要介紹了解決pycharm修改代碼后第一次運(yùn)行不生效的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2021-02-02
  • 使用numpy實(shí)現(xiàn)topk函數(shù)操作(并排序)

    使用numpy實(shí)現(xiàn)topk函數(shù)操作(并排序)

    這篇文章主要介紹了使用numpy實(shí)現(xiàn)topk函數(shù)操作(并排序),具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2021-05-05
  • python進(jìn)階collections標(biāo)準(zhǔn)庫(kù)使用示例詳解

    python進(jìn)階collections標(biāo)準(zhǔn)庫(kù)使用示例詳解

    這篇文章主要為大家介紹了python進(jìn)階collections標(biāo)準(zhǔn)庫(kù)使用示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2022-11-11
  • 基于CUDA out of memory的一種神奇解決方式

    基于CUDA out of memory的一種神奇解決方式

    這篇文章主要介紹了基于CUDA out of memory的一種神奇解決方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2023-02-02

最新評(píng)論