欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

TensorFlow實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN

 更新時間:2018年03月09日 10:44:00   作者:marsjhao  
這篇文章主要為大家詳細(xì)介紹了TensorFlow實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN,具有一定的參考價值,感興趣的小伙伴們可以參考一下

一、卷積神經(jīng)網(wǎng)絡(luò)CNN簡介

卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)最初是為解決圖像識別等問題設(shè)計的,CNN現(xiàn)在的應(yīng)用已經(jīng)不限于圖像和視頻,也可用于時間序列信號,比如音頻信號和文本數(shù)據(jù)等。CNN作為一個深度學(xué)習(xí)架構(gòu)被提出的最初訴求是降低對圖像數(shù)據(jù)預(yù)處理的要求,避免復(fù)雜的特征工程。在卷積神經(jīng)網(wǎng)絡(luò)中,第一個卷積層會直接接受圖像像素級的輸入,每一層卷積(濾波器)都會提取數(shù)據(jù)中最有效的特征,這種方法可以提取到圖像中最基礎(chǔ)的特征,而后再進(jìn)行組合和抽象形成更高階的特征,因此CNN在理論上具有對圖像縮放、平移和旋轉(zhuǎn)的不變性。

卷積神經(jīng)網(wǎng)絡(luò)CNN的要點就是局部連接(LocalConnection)、權(quán)值共享(WeightsSharing)和池化層(Pooling)中的降采樣(Down-Sampling)。其中,局部連接和權(quán)值共享降低了參數(shù)量,使訓(xùn)練復(fù)雜度大大下降并減輕了過擬合。同時權(quán)值共享還賦予了卷積網(wǎng)絡(luò)對平移的容忍性,池化層降采樣則進(jìn)一步降低了輸出參數(shù)量并賦予模型對輕度形變的容忍性,提高了模型的泛化能力??梢园丫矸e層卷積操作理解為用少量參數(shù)在圖像的多個位置上提取相似特征的過程。

更多請參見:深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)CNN

二、TensorFlow代碼實現(xiàn)

#!/usr/bin/env python2 
# -*- coding: utf-8 -*- 
""" 
Created on Thu Mar 9 22:01:46 2017 
 
@author: marsjhao 
""" 
 
import tensorflow as tf 
from tensorflow.examples.tutorials.mnist import input_data 
 
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) 
sess = tf.InteractiveSession() 
 
def weight_variable(shape): 
 initial = tf.truncated_normal(shape, stddev=0.1) #標(biāo)準(zhǔn)差為0.1的正態(tài)分布 
 return tf.Variable(initial) 
 
def bias_variable(shape): 
 initial = tf.constant(0.1, shape=shape) #偏差初始化為0.1 
 return tf.Variable(initial) 
 
def conv2d(x, W): 
 return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME') 
 
def max_pool_2x2(x): 
 return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], 
       strides=[1, 2, 2, 1], padding='SAME') 
 
x = tf.placeholder(tf.float32, [None, 784]) 
y_ = tf.placeholder(tf.float32, [None, 10]) 
# -1代表先不考慮輸入的圖片例子多少這個維度,1是channel的數(shù)量 
x_image = tf.reshape(x, [-1, 28, 28, 1]) 
keep_prob = tf.placeholder(tf.float32) 
 
# 構(gòu)建卷積層1 
W_conv1 = weight_variable([5, 5, 1, 32]) # 卷積核5*5,1個channel,32個卷積核,形成32個featuremap 
b_conv1 = bias_variable([32]) # 32個featuremap的偏置 
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1) # 用relu非線性處理 
h_pool1 = max_pool_2x2(h_conv1) # pooling池化 
 
# 構(gòu)建卷積層2 
W_conv2 = weight_variable([5, 5, 32, 64]) # 注意這里channel值是32 
b_conv2 = bias_variable([64]) 
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2) 
h_pool2 = max_pool_2x2(h_conv2) 
 
# 構(gòu)建全連接層1 
W_fc1 = weight_variable([7*7*64, 1024]) 
b_fc1 = bias_variable([1024]) 
h_pool3 = tf.reshape(h_pool2, [-1, 7*7*64]) 
h_fc1 = tf.nn.relu(tf.matmul(h_pool3, W_fc1) + b_fc1) 
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob) 
 
# 構(gòu)建全連接層2 
W_fc2 = weight_variable([1024, 10]) 
b_fc2 = bias_variable([10]) 
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) 
 
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv), 
            reduction_indices=[1])) 
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) 
correct_prediction = tf.equal(tf.arg_max(y_conv, 1), tf.arg_max(y_, 1)) 
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 
 
tf.global_variables_initializer().run() 
 
for i in range(20001): 
 batch = mnist.train.next_batch(50) 
 if i % 100 == 0: 
  train_accuracy = accuracy.eval(feed_dict={x:batch[0], y_:batch[1], 
             keep_prob: 1.0}) 
  print("step %d, training accuracy %g" %(i, train_accuracy)) 
 train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob:0.5}) 
print("test accuracy %g" %accuracy.eval(feed_dict={x: mnist.test.images, 
         y_: mnist.test.labels, keep_prob: 1.0})) 

三、代碼解讀

該代碼是用TensorFlow實現(xiàn)一個簡單的卷積神經(jīng)網(wǎng)絡(luò),在數(shù)據(jù)集MNIST上,預(yù)期可以實現(xiàn)99.2%左右的準(zhǔn)確率。結(jié)構(gòu)上使用兩個卷積層和一個全連接層。

首先載入MNIST數(shù)據(jù)集,采用獨熱編碼,并創(chuàng)建tf.InteractiveSession。然后為后續(xù)即將多次使用的部分代碼創(chuàng)建函數(shù),包括權(quán)重初始化weight_variable、偏置初始化bias_variable、卷積層conv2d、最大池化max_pool_2x2。其中權(quán)重初始化的時候要進(jìn)行含有噪聲的非對稱初始化,打破完全對稱。又由于我們要使用ReLU單元,也需要給偏置bias增加一些小的正值(0.1)用來避免死亡節(jié)點(dead neurons)。

構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)之前,先要定義輸入的placeholder,特征x和真實標(biāo)簽y_,將1*784格式的特征x轉(zhuǎn)換reshape為28*28的圖片格式,又由于只有一個通道且不確定輸入樣本的數(shù)量,故最終尺寸為[-1, 28, 28, 1]。

接下來定義第一個卷積層,首先初始化weights和bias,然后使用conv2d進(jìn)行卷積操作并加上偏置,隨后使用ReLU激活函數(shù)進(jìn)行非線性處理,最后使用最大池化函數(shù)對卷積的輸出結(jié)果進(jìn)行池化操作。

相同的步驟定義第二個卷積層,不同的地方是卷積核的數(shù)量為64,也就是說這一層的卷積會提取64種特征。經(jīng)過兩層不變尺寸的卷積和兩次尺寸減半的池化,第二個卷積層后的輸出尺寸為7*7*64。將其reshape為長度為7*7*64的1-D向量。經(jīng)過ReLU后,為了減輕過擬合,使用一個Dropout層,在訓(xùn)練時隨機丟棄部分節(jié)點的數(shù)據(jù)減輕過擬合,在預(yù)測的時候保留全部數(shù)據(jù)來追求最好的測試性能。

最后加一個Softmax層,得到最后的預(yù)測概率。隨后的定義損失函數(shù)、優(yōu)化器、評測準(zhǔn)確率不再詳細(xì)贅述。

訓(xùn)練過程首先進(jìn)行初始化全部參數(shù),訓(xùn)練時keep_prob比率設(shè)置為0.5,評測時設(shè)置為1。訓(xùn)練完成后,在最終的測試集上進(jìn)行全面的測試,得到整體的分類準(zhǔn)確率。

經(jīng)過實驗,這個CNN的模型可以得到99.2%的準(zhǔn)確率,相比于MLP又有了較大幅度的提高。

四、其他解讀補充

1. tf.nn.conv2d(x,W, strides=[1, 1, 1, 1], padding='SAME')

tf.nn.conv2d是TensorFlow的2維卷積函數(shù),x和W都是4-D的tensors。x是輸入input shape=[batch,in_height, in_width, in_channels],W是卷積的參數(shù)filter / kernel shape=[filter_height, filter_width, in_channels,out_channels]。strides參數(shù)是長度為4的1-D參數(shù),代表了卷積核(滑動窗口)移動的步長,其中對于圖片strides[0]和strides[3]必須是1,都是1表示不遺漏地劃過圖片的每一個點。padding參數(shù)中SAME代表給邊界加上Padding讓卷積的輸出和輸入保持相同的尺寸。

2. tf.nn.max_pool(x,ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')

tf.nn.max_pool是TensorFlow中的最大池化函數(shù),x是4-D的輸入tensor shape=[batch, height, width, channels],ksize參數(shù)表示池化窗口的大小,取一個4維向量,一般是[1, height, width, 1],因為我們不想在batch和channels上做池化,所以這兩個維度設(shè)為了1,strides與tf.nn.conv2d相同,strides=[1, 2, 2, 1]可以縮小圖片尺寸。padding參數(shù)也參見tf.nn.conv2d。

相關(guān)文章

  • 基于Python實現(xiàn)格斗小游戲的示例代碼

    基于Python實現(xiàn)格斗小游戲的示例代碼

    格斗游戲,曾經(jīng)是街機廳里最火爆的游戲之一,甚至可以把“之一”去掉,那個年代的格斗游戲就是街機游戲的王。本文就來用Python實現(xiàn)一個簡單的格斗游戲,感興趣的可以了解一下
    2023-03-03
  • np.ones的使用小結(jié)

    np.ones的使用小結(jié)

    本文主要介紹了np.ones的使用小結(jié),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-03-03
  • 讓代碼變得更易維護(hù)的7個Python庫

    讓代碼變得更易維護(hù)的7個Python庫

    今天小編就為大家分享一篇關(guān)于讓代碼變得更易維護(hù)的7個Python庫,小編覺得內(nèi)容挺不錯的,現(xiàn)在分享給大家,具有很好的參考價值,需要的朋友一起跟隨小編來看看吧
    2018-10-10
  • 一步步教你用python給女朋友寫個微信自動提醒的程序

    一步步教你用python給女朋友寫個微信自動提醒的程序

    如今微信已成為我們?nèi)粘I畹闹饕涣鞴ぞ?但是微信自身的功能有時候可能并不能滿足我們的需要,因此我們會想是否可以進(jìn)行微信功能的拓展呢,這篇文章主要給大家介紹了關(guān)于利用python給女朋友寫了個微信自動提醒程序的相關(guān)資料,需要的朋友可以參考下
    2021-10-10
  • python判斷端口是否打開的實現(xiàn)代碼

    python判斷端口是否打開的實現(xiàn)代碼

    python判斷端口是否打開的代碼,有需要的朋友可以參考下
    2013-02-02
  • python怎么創(chuàng)建新文件代碼舉例

    python怎么創(chuàng)建新文件代碼舉例

    Python創(chuàng)建新文件有多種方法,包括使用open函數(shù)、with語句和Pathlib模塊,這篇文章主要給大家介紹了關(guān)于python怎么創(chuàng)建新文件的相關(guān)資料,需要的朋友可以參考下
    2023-12-12
  • 使用python解析xml成對應(yīng)的html示例分享

    使用python解析xml成對應(yīng)的html示例分享

    這篇文章主要介紹了使用python解析xml成對應(yīng)的html示例,需要的朋友可以參考下
    2014-04-04
  • python基礎(chǔ)之共有操作

    python基礎(chǔ)之共有操作

    這篇文章主要介紹了python函數(shù)的定義和調(diào)用,實例分析了Python中返回一個返回值與多個返回值的方法,需要的朋友可以參考下
    2021-10-10
  • Python類屬性與實例屬性用法分析

    Python類屬性與實例屬性用法分析

    這篇文章主要介紹了Python類屬性與實例屬性用法,實例分析了Python類屬性與實例屬性的功能、定義與使用技巧,需要的朋友可以參考下
    2015-05-05
  • Python實例之wxpython中Frame使用方法

    Python實例之wxpython中Frame使用方法

    本文介紹下wxpython中Frame的用法,不錯的python編程實例,有需要的朋友參考下
    2014-06-06

最新評論