欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python神經(jīng)網(wǎng)絡(luò)TensorFlow基于CNN卷積識別手寫數(shù)字

 更新時間:2021年10月16日 10:10:58   作者:_睿智_  
這篇文章主要介紹了Python神經(jīng)網(wǎng)絡(luò)TensorFlow基于CNN卷積識別手寫數(shù)字的實現(xiàn)示例解析,有需要的朋友可以借鑒參考下,希望能夠有所幫助

基礎(chǔ)理論

第一層:卷積層。

第二層:卷積層。

第三層:全連接層。

第四層:輸出層。

圖中原始的手寫數(shù)字的圖片是一張 28×28 的圖片,并且是黑白的,所以圖片的通道數(shù)是1,輸入數(shù)據(jù)是 28×28×1 的數(shù)據(jù),如果是彩色圖片,圖片的通道數(shù)就為 3。
該網(wǎng)絡(luò)結(jié)構(gòu)是一個 4 層的卷積神經(jīng)網(wǎng)絡(luò)(計算神經(jīng)網(wǎng)絡(luò)層數(shù)的時候,有權(quán)值的才算是一層,池化層就不能單獨算一層)(池化的計算是在卷積層中進行的)。
對多張?zhí)卣鲌D求卷積,相當于是同時對多張?zhí)卣鲌D進行特征提取。

特征圖數(shù)量越多說明卷積網(wǎng)絡(luò)提取的特征數(shù)量越多,如果特征圖數(shù)量設(shè)置得太少容易出現(xiàn)欠擬合,如果特征圖數(shù)量設(shè)置得太多容易出現(xiàn)過擬合,所以需要設(shè)置為合適的數(shù)值。

一、訓練CNN卷積神經(jīng)網(wǎng)絡(luò)

1、載入數(shù)據(jù)

# 1、載入數(shù)據(jù)
mnist = tf.keras.datasets.mnist
(train_data, train_target), (test_data, test_target) = mnist.load_data()

2、改變數(shù)據(jù)維度

注:在TensorFlow中,在做卷積的時候需要把數(shù)據(jù)變成4維的格式。
這4個維度分別是:數(shù)據(jù)數(shù)量,圖片高度,圖片寬度,圖片通道數(shù)。

# 3、歸一化(有助于提升訓練速度)
train_data = train_data/255.0
test_data = test_data/255.0

3、歸一化

# 3、歸一化(有助于提升訓練速度)
train_data = train_data/255.0
test_data = test_data/255.0

4、獨熱編碼

# 4、獨熱編碼
train_target = tf.keras.utils.to_categorical(train_target, num_classes=10)
test_target = tf.keras.utils.to_categorical(test_target, num_classes=10)    #10種結(jié)果

5、搭建CNN卷積神經(jīng)網(wǎng)絡(luò)

model = Sequential()

5-1、第一層:第一個卷積層

第一個卷積層:卷積層+池化層。

# 5-1、第一層:卷積層+池化層
# 第一個卷積層
model.add(Convolution2D(input_shape = (28,28,1), filters = 32, kernel_size = 5, strides = 1, padding = 'same', activation = 'relu'))
#         卷積層         輸入數(shù)據(jù)                  濾波器數(shù)量      卷積核大小        步長          填充數(shù)據(jù)(same padding)  激活函數(shù)
# 第一個池化層 # pool_size
model.add(MaxPooling2D(pool_size = 2, strides = 2, padding = 'same',))
#         池化層(最大池化) 池化窗口大小   步長          填充方式

5-2、第二層:第二個卷積層

# 5-2、第二層:卷積層+池化層
# 第二個卷積層
model.add(Convolution2D(64, 5, strides=1, padding='same', activation='relu'))
# 64:濾波器個數(shù)      5:卷積窗口大小
# 第二個池化層
model.add(MaxPooling2D(2, 2, 'same'))

5-3、扁平化

把(64,7,7,64)數(shù)據(jù)變成:(64,7*7*64)。

flatten扁平化:

# 5-3、扁平化 (相當于把(64,7,7,64)數(shù)據(jù)->(64,7*7*64))
model.add(Flatten())

5-4、第三層:第一個全連接層

# 5-4、第三層:第一個全連接層
model.add(Dense(1024,activation = 'relu'))
model.add(Dropout(0.5))

5-5、第四層:第二個全連接層(輸出層)

# 5-5、第四層:第二個全連接層(輸出層)
model.add(Dense(10, activation='softmax'))
# 10:輸出神經(jīng)元個數(shù)

6、編譯

設(shè)置優(yōu)化器、損失函數(shù)、標簽。

# 6、編譯
model.compile(optimizer=Adam(lr=1e-4), loss='categorical_crossentropy', metrics=['accuracy'])
#            優(yōu)化器(adam)               損失函數(shù)(交叉熵損失函數(shù))            標簽

7、訓練

# 7、訓練
model.fit(train_data, train_target, batch_size=64, epochs=10, validation_data=(test_data, test_target))

8、保存模型

# 8、保存模型
model.save('mnist.h5')

效果:

Epoch 1/10
938/938 [==============================] - 142s 151ms/step - loss: 0.3319 - accuracy: 0.9055 - val_loss: 0.0895 - val_accuracy: 0.9728
Epoch 2/10
938/938 [==============================] - 158s 169ms/step - loss: 0.0911 - accuracy: 0.9721 - val_loss: 0.0515 - val_accuracy: 0.9830
Epoch 3/10
938/938 [==============================] - 146s 156ms/step - loss: 0.0629 - accuracy: 0.9807 - val_loss: 0.0389 - val_accuracy: 0.9874
Epoch 4/10
938/938 [==============================] - 120s 128ms/step - loss: 0.0498 - accuracy: 0.9848 - val_loss: 0.0337 - val_accuracy: 0.9889
Epoch 5/10
938/938 [==============================] - 119s 127ms/step - loss: 0.0424 - accuracy: 0.9869 - val_loss: 0.0273 - val_accuracy: 0.9898
Epoch 6/10
938/938 [==============================] - 129s 138ms/step - loss: 0.0338 - accuracy: 0.9897 - val_loss: 0.0270 - val_accuracy: 0.9907
Epoch 7/10
938/938 [==============================] - 124s 133ms/step - loss: 0.0302 - accuracy: 0.9904 - val_loss: 0.0234 - val_accuracy: 0.9917
Epoch 8/10
938/938 [==============================] - 132s 140ms/step - loss: 0.0264 - accuracy: 0.9916 - val_loss: 0.0240 - val_accuracy: 0.9913
Epoch 9/10
938/938 [==============================] - 139s 148ms/step - loss: 0.0233 - accuracy: 0.9926 - val_loss: 0.0235 - val_accuracy: 0.9919
Epoch 10/10
938/938 [==============================] - 139s 148ms/step - loss: 0.0208 - accuracy: 0.9937 - val_loss: 0.0215 - val_accuracy: 0.9924

可以發(fā)現(xiàn)訓練10次以后,效果達到了99%+,還是比較不錯的。

代碼

# 手寫數(shù)字識別 -- CNN神經(jīng)網(wǎng)絡(luò)訓練
import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
 import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense,Dropout,Convolution2D,MaxPooling2D,Flatten
from tensorflow.keras.optimizers import Adam
 # 1、載入數(shù)據(jù)
mnist = tf.keras.datasets.mnist
(train_data, train_target), (test_data, test_target) = mnist.load_data()
# 2、改變數(shù)據(jù)維度
train_data = train_data.reshape(-1, 28, 28, 1)
test_data = test_data.reshape(-1, 28, 28, 1)
# 注:在TensorFlow中,在做卷積的時候需要把數(shù)據(jù)變成4維的格式
# 這4個維度分別是:數(shù)據(jù)數(shù)量,圖片高度,圖片寬度,圖片通道數(shù) 
# 3、歸一化(有助于提升訓練速度)
train_data = train_data/255.0
test_data = test_data/255.0 
# 4、獨熱編碼
train_target = tf.keras.utils.to_categorical(train_target, num_classes=10)
test_target = tf.keras.utils.to_categorical(test_target, num_classes=10)    #10種結(jié)果 
# 5、搭建CNN卷積神經(jīng)網(wǎng)絡(luò)
model = Sequential()
# 5-1、第一層:卷積層+池化層
# 第一個卷積層
model.add(Convolution2D(input_shape = (28,28,1), filters = 32, kernel_size = 5, strides = 1, padding = 'same', activation = 'relu'))
#         卷積層         輸入數(shù)據(jù)                  濾波器數(shù)量      卷積核大小        步長          填充數(shù)據(jù)(same padding)  激活函數(shù)
# 第一個池化層 # pool_size
model.add(MaxPooling2D(pool_size = 2, strides = 2, padding = 'same',))
#         池化層(最大池化) 池化窗口大小   步長          填充方式 
# 5-2、第二層:卷積層+池化層
# 第二個卷積層
model.add(Convolution2D(64, 5, strides=1, padding='same', activation='relu'))
# 64:濾波器個數(shù)      5:卷積窗口大小
# 第二個池化層
model.add(MaxPooling2D(2, 2, 'same')) 
# 5-3、扁平化 (相當于把(64,7,7,64)數(shù)據(jù)->(64,7*7*64))
model.add(Flatten()) 
# 5-4、第三層:第一個全連接層
model.add(Dense(1024, activation = 'relu'))
model.add(Dropout(0.5)) 
# 5-5、第四層:第二個全連接層(輸出層)
model.add(Dense(10, activation='softmax'))
# 10:輸出神經(jīng)元個數(shù) 
# 6、編譯
model.compile(optimizer=Adam(lr=1e-4), loss='categorical_crossentropy', metrics=['accuracy'])
#            優(yōu)化器(adam)               損失函數(shù)(交叉熵損失函數(shù))            標簽 
# 7、訓練
model.fit(train_data, train_target, batch_size=64, epochs=10, validation_data=(test_data, test_target)) 
# 8、保存模型
model.save('mnist.h5')

二、識別自己的手寫數(shù)字(圖像)

1、載入數(shù)據(jù)

# 1、載入數(shù)據(jù)
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()

數(shù)據(jù)集的圖片(之一):

2、載入訓練好的模型

# 2、載入訓練好的模型
model = load_model('mnist.h5')

3、載入自己寫的數(shù)字圖片并設(shè)置大小

# 3、載入自己寫的數(shù)字圖片并設(shè)置大小
img = Image.open('6.jpg')
# 設(shè)置大小(和數(shù)據(jù)集的圖片一致)
img = img.resize((28, 28))

4、轉(zhuǎn)灰度圖

# 4、轉(zhuǎn)灰度圖
gray = np.array(img.convert('L'))       #.convert('L'):轉(zhuǎn)灰度圖

可以發(fā)現(xiàn)和數(shù)據(jù)集中的白底黑字差別很大,所以我們把它反轉(zhuǎn)一下:

5、轉(zhuǎn)黑底白字、數(shù)據(jù)歸一化

MNIST數(shù)據(jù)集中的數(shù)據(jù)都是黑底白字,且取值在0~1之間。

# 5、轉(zhuǎn)黑底白字、數(shù)據(jù)歸一化
gray_inv = (255-gray)/255.0

6、轉(zhuǎn)四維數(shù)據(jù)

CNN神經(jīng)網(wǎng)絡(luò)預測需要四維數(shù)據(jù)。

# 6、轉(zhuǎn)四維數(shù)據(jù)(CNN預測需要)
image = gray_inv.reshape((1,28,28,1))

7、預測

# 7、預測
prediction = model.predict(image)           # 預測
prediction = np.argmax(prediction,axis=1)   # 找出最大值
print('預測結(jié)果:', prediction)

8、顯示圖像

# 8、顯示
# 設(shè)置plt圖表
f, ax = plt.subplots(3, 3, figsize=(7, 7))
# 顯示數(shù)據(jù)集圖像
ax[0][0].set_title('train_model')
ax[0][0].axis('off')
ax[0][0].imshow(x_train[18], 'gray')
# 顯示原圖
ax[0][1].set_title('img')
ax[0][1].axis('off')
ax[0][1].imshow(img, 'gray')
# 顯示灰度圖(白底黑字)
ax[0][2].set_title('gray')
ax[0][2].axis('off')
ax[0][2].imshow(gray, 'gray')
# 顯示灰度圖(黑底白字)
ax[1][0].set_title('gray')
ax[1][0].axis('off')
ax[1][0].imshow(gray_inv, 'gray')
 
plt.show()

效果展示

代碼

# 識別自己的手寫數(shù)字(圖像預測)
import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tf
from tensorflow.keras.models import load_model
import matplotlib.pyplot as plt
from PIL import Image
import numpy as np 
# 1、載入數(shù)據(jù)
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data() 
# 2、載入訓練好的模型
model = load_model('mnist.h5') 
# 3、載入自己寫的數(shù)字圖片并設(shè)置大小
img = Image.open('5.jpg')
# 設(shè)置大?。ê蛿?shù)據(jù)集的圖片一致)
img = img.resize((28, 28)) 
# 4、轉(zhuǎn)灰度圖
gray = np.array(img.convert('L'))       #.convert('L'):轉(zhuǎn)灰度圖
# 5、轉(zhuǎn)黑底白字、數(shù)據(jù)歸一化
gray_inv = (255-gray)/255.0 
# 6、轉(zhuǎn)四維數(shù)據(jù)(CNN預測需要)
image = gray_inv.reshape((1,28,28,1)) 
# 7、預測
prediction = model.predict(image)           # 預測
prediction = np.argmax(prediction,axis=1)   # 找出最大值
print('預測結(jié)果:', prediction) 
# 8、顯示
# 設(shè)置plt圖表
f, ax = plt.subplots(2, 2, figsize=(5, 5))
# 顯示數(shù)據(jù)集圖像
ax[0][0].set_title('train_model')
ax[0][0].axis('off')
ax[0][0].imshow(x_train[18], 'gray')
# 顯示原圖
ax[0][1].set_title('img')
ax[0][1].axis('off')
ax[0][1].imshow(img, 'gray')
# 顯示灰度圖(白底黑字)
ax[1][0].set_title('gray')
ax[1][0].axis('off')
ax[1][0].imshow(gray, 'gray')
# 顯示灰度圖(黑底白字)
ax[1][1].set_title(f'predict:{prediction}')
ax[1][1].axis('off')
ax[1][1].imshow(gray_inv, 'gray') 
plt.show()

以上就是Python神經(jīng)網(wǎng)絡(luò)TensorFlow基于CNN卷積識別手寫數(shù)字的詳細內(nèi)容,更多關(guān)于TensorFlow識別手寫數(shù)字的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • Python推導式使用詳情

    Python推導式使用詳情

    這篇文章主要介紹了Python推導式使用詳情,推導式是?for?循環(huán)的簡化使用方法,使用推導式,將一個可迭代對象中的數(shù)據(jù)遍歷到某一個容器當中,下面文章詳細介紹需要的小伙伴可以參考一下
    2022-05-05
  • 在Django同1個頁面中的多表單處理詳解

    在Django同1個頁面中的多表單處理詳解

    這篇文章主要給大家介紹了在Django同1個頁面中的多表單處理的相關(guān)資料,文章先給大家介紹了如何快速上手Django實現(xiàn)項目的方法,方便讓大家理解和學習,需要的朋友可以參考借鑒,下面來一起看看吧。
    2017-01-01
  • Python基于正則表達式實現(xiàn)檢查文件內(nèi)容的方法【文件檢索】

    Python基于正則表達式實現(xiàn)檢查文件內(nèi)容的方法【文件檢索】

    這篇文章主要介紹了Python基于正則表達式實現(xiàn)檢查文件內(nèi)容的方法,可實現(xiàn)針對文件中import強制依賴的文件關(guān)系檢索,涉及Python文件目錄的遍歷及正則匹配相關(guān)操作技巧,需要的朋友可以參考下
    2017-08-08
  • Python實現(xiàn)簡單的俄羅斯方塊游戲

    Python實現(xiàn)簡單的俄羅斯方塊游戲

    這篇文章主要為大家詳細介紹了Python實現(xiàn)簡單的俄羅斯方塊游戲,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2021-09-09
  • Python中利用LSTM模型進行時間序列預測分析的實現(xiàn)

    Python中利用LSTM模型進行時間序列預測分析的實現(xiàn)

    這篇文章主要介紹了Python中利用LSTM模型進行時間序列預測分析的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2019-07-07
  • Python使用matplotlib的pie函數(shù)繪制餅狀圖功能示例

    Python使用matplotlib的pie函數(shù)繪制餅狀圖功能示例

    這篇文章主要介紹了Python使用matplotlib的pie函數(shù)繪制餅狀圖功能,結(jié)合實例形式分析了Python使用matplotlib的pie函數(shù)進行餅狀圖繪制的具體操作技巧,注釋中對pie函數(shù)的用法進行了詳細的說明,便于理解,需要的朋友可以參考下
    2018-01-01
  • python列表[list]和元組(tuple)詳情

    python列表[list]和元組(tuple)詳情

    這篇文章主要介紹了python列表[list]和元組(tuple)詳情,文章圍繞主題展開詳細的內(nèi)容介紹,具有一定的參考價值,需要的小伙伴可以參考一下
    2022-08-08
  • python3調(diào)用百度翻譯API實現(xiàn)實時翻譯

    python3調(diào)用百度翻譯API實現(xiàn)實時翻譯

    這篇文章主要為大家詳細介紹了python3調(diào)用百度翻譯API,實現(xiàn)實時翻譯,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-08-08
  • Python Mock模塊原理及使用方法詳解

    Python Mock模塊原理及使用方法詳解

    這篇文章主要介紹了Python Mock模塊原理及使用方法詳解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2020-07-07
  • Python爬蟲實戰(zhàn)之爬取京東商品數(shù)據(jù)并實實現(xiàn)數(shù)據(jù)可視化

    Python爬蟲實戰(zhàn)之爬取京東商品數(shù)據(jù)并實實現(xiàn)數(shù)據(jù)可視化

    今天再帶大家簡單爬一波京東的商品數(shù)據(jù)唄,廢話不多說,文中有非常詳細的代碼示例,需要的朋友可以參考下
    2021-06-06

最新評論