tensorflow實(shí)現(xiàn)簡(jiǎn)單的卷積網(wǎng)絡(luò)
使用tensorflow實(shí)現(xiàn)一個(gè)簡(jiǎn)單的卷積神經(jīng),使用的數(shù)據(jù)集是MNIST,本節(jié)將使用兩個(gè)卷積層加一個(gè)全連接層,構(gòu)建一個(gè)簡(jiǎn)單有代表性的卷積網(wǎng)絡(luò)。
代碼是按照書上的敲的,第一步就是導(dǎo)入數(shù)據(jù)庫(kù),設(shè)置節(jié)點(diǎn)的初始值,Tf.nn.conv2d是tensorflow中的2維卷積,參數(shù)x是輸入,W是卷積的參數(shù),比如【5,5,1,32】,前面兩個(gè)數(shù)字代表卷積核的尺寸,第三個(gè)數(shù)字代表有幾個(gè)通道,比如灰度圖是1,彩色圖是3.最后一個(gè)代表卷積的數(shù)量,總的實(shí)現(xiàn)代碼如下:
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
mnist = input_data.read_data_sets("MNSIT_data/", one_hot=True)
sess = tf.InteractiveSession()
# In[2]:
#由于W和b在各層中均要用到,先定義乘函數(shù)。
#tf.truncated_normal:截?cái)嗾龖B(tài)分布,即限制范圍的正態(tài)分布
def weight_variable(shape):
initial = tf.truncated_normal(shape, stddev=0.1)
return tf.Variable(initial)
# In[7]:
#bias初始化值0.1.
def bias_variable(shape):
initial = tf.constant(0.1, shape=shape)
return tf.Variable(initial)
# In[12]:
#tf.nn.conv2d:二維的卷積
#conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None,data_format=None, name=None)
#filter:A 4-D tensor of shape
# `[filter_height, filter_width, in_channels, out_channels]`
#strides:步長(zhǎng),都是1表示所有點(diǎn)都不會(huì)被遺漏。1-D 4值,表示每歌dim的移動(dòng)步長(zhǎng)。
# padding:邊界的處理方式,“SAME"、"VALID”可選
def conv2d(x, W):
return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
#tf.nn.max_pool:最大值池化函數(shù),即求2*2區(qū)域的最大值,保留最顯著的特征。
#max_pool(value, ksize, strides, padding, data_format="NHWC", name=None)
#ksize:池化窗口的尺寸
#strides:[1,2,2,1]表示橫豎方向步長(zhǎng)為2
def max_pool_2x2(x):
return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides = [1, 2, 2, 1], padding='SAME')
x = tf.placeholder(tf.float32, [None, 784])
y_ = tf.placeholder(tf.float32, [None, 10])
#tf.reshape:tensor的變形函數(shù)。
#-1:樣本數(shù)量不固定
#28,28:新形狀的shape
#1:顏色通道數(shù)
x_image = tf.reshape(x, [-1, 28, 28, 1])
#卷積層包含三部分:卷積計(jì)算、激活、池化
#[5,5,1,32]表示卷積核的尺寸為5×5, 顏色通道為1, 有32個(gè)卷積核
W_conv1 = weight_variable([5, 5, 1, 32])
b_conv1 = bias_variable([32])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)
W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)
#經(jīng)過2次2×2的池化后,圖像的尺寸變?yōu)?×7,第二個(gè)卷積層有64個(gè)卷積核,生成64類特征,因此,卷積最后輸出為7×7×64.
#tensor進(jìn)入全連接層之前,先將64張二維圖像變形為1維圖像,便于計(jì)算。
W_fc1 = weight_variable([7*7*64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
#對(duì)全連接層做dropot
keep_prob = tf.placeholder(tf.float32)
h_fc1_dropout = tf.nn.dropout(h_fc1, keep_prob)
#又一個(gè)全連接后foftmax分類
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_dropout, W_fc2) + b_fc2)
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y_conv), reduction_indices=[1]))
#AdamOptimizer:Adam優(yōu)化函數(shù)
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_, 1), tf.argmax(y_conv, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
#訓(xùn)練,并且每100個(gè)batch計(jì)算一次精度
tf.global_variables_initializer().run()
for i in range(20000):
batch = mnist.train.next_batch(50)
if i%100 == 0:
train_accuracy = accuracy.eval(feed_dict={x:batch[0], y_:batch[1], keep_prob:1.0})
print("step %d, training accuracy %g" %(i, train_accuracy))
train_step.run(feed_dict={x:batch[0], y_:batch[1], keep_prob:0.5})
#在測(cè)試集上測(cè)試
print("test accuracy %g"%accuracy.eval(feed_dict={x:mnist.test.images, y_:mnist.test.labels, keep_prob:1.0}))
注意的是書上開始運(yùn)行的代碼是tf.global_variables_initializer().run(),但是在敲到代碼中就會(huì)報(bào)錯(cuò),也不知道為什么,可能是因?yàn)榘姹镜膯栴}吧,上網(wǎng)搜了一下,改為sess.run(tf.initialiaze_all_variables)即可。
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- 完美解決安裝完tensorflow后pip無法使用的問題
- Python(TensorFlow框架)實(shí)現(xiàn)手寫數(shù)字識(shí)別系統(tǒng)的方法
- 基于MTCNN/TensorFlow實(shí)現(xiàn)人臉檢測(cè)
- Tensorflow實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的詳細(xì)代碼
- Tensorflow實(shí)現(xiàn)AlexNet卷積神經(jīng)網(wǎng)絡(luò)及運(yùn)算時(shí)間評(píng)測(cè)
- Tensorflow卷積神經(jīng)網(wǎng)絡(luò)實(shí)例進(jìn)階
- tensorflow實(shí)現(xiàn)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)
- 解決Tensorflow安裝成功,但在導(dǎo)入時(shí)報(bào)錯(cuò)的問題
相關(guān)文章
Python實(shí)現(xiàn)過濾單個(gè)Android程序日志腳本分享
這篇文章主要介紹了Python實(shí)現(xiàn)過濾單個(gè)Android程序日志腳本分享,本文講解了原理、實(shí)現(xiàn)代碼、使用方法、最新代碼等內(nèi)容,需要的朋友可以參考下2015-01-01
Python 利用Entrez庫(kù)篩選下載PubMed文獻(xiàn)摘要的示例
這篇文章主要介紹了Python 利用Entrez庫(kù)篩選下載PubMed文獻(xiàn)摘要的示例,幫助大家更好的理解和使用python,感興趣的朋友可以了解下2020-11-11
Python3.x檢查內(nèi)存可用大小的兩種實(shí)現(xiàn)
本文將介紹如何使用Python 3實(shí)現(xiàn)檢查L(zhǎng)inux服務(wù)器內(nèi)存可用大小的方法,包括使用Python標(biāo)準(zhǔn)庫(kù)實(shí)現(xiàn)和使用Linux命令實(shí)現(xiàn)兩種方式,感興趣可以了解一下2023-05-05
django使用channels實(shí)現(xiàn)通信的示例
這篇文章主要介紹了django使用channels實(shí)現(xiàn)通信的示例,幫助大家更好的理解和學(xué)習(xí)django框架,感興趣的朋友可以了解下2020-10-10
基于PyQt5實(shí)現(xiàn)圖轉(zhuǎn)文功能(示例代碼)
PyQt提供了一個(gè)設(shè)計(jì)良好的窗口控件集合,具有更方便的操作性。學(xué)過VB的同學(xué)會(huì)知道,相比與VB的使用,在界面設(shè)計(jì)上元素更豐富,這篇文章主要介紹了基于PyQt5完成的圖轉(zhuǎn)文功能,需要的朋友可以參考下2022-06-06
python實(shí)現(xiàn)簡(jiǎn)易五子棋游戲(控制臺(tái)版)
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)簡(jiǎn)易五子棋游戲,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-05-05
基于Python實(shí)現(xiàn)船舶的MMSI的獲取(推薦)
工作中遇到一個(gè)需求,需要通過網(wǎng)站查詢船舶名稱得到MMSI碼,網(wǎng)站來自船訊網(wǎng)。這篇文章主要介紹了基于Python實(shí)現(xiàn)船舶的MMSI的獲取,需要的朋友可以參考下2019-10-10

