欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python神經(jīng)網(wǎng)絡(luò)Keras構(gòu)建CNN網(wǎng)絡(luò)訓(xùn)練

 更新時(shí)間:2022年05月04日 12:29:46   作者:Bubbliiiing  
這篇文章主要為大家介紹了python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)使用Keras構(gòu)建CNN網(wǎng)絡(luò)訓(xùn)練,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪

利用Keras構(gòu)建完普通BP神經(jīng)網(wǎng)絡(luò)后,還要會(huì)構(gòu)建CNN

Keras中構(gòu)建CNN的重要函數(shù)

1、Conv2D

Conv2D用于在CNN中構(gòu)建卷積層,在使用它之前需要在庫函數(shù)處import它。

from keras.layers import Conv2D

在實(shí)際使用時(shí),需要用到幾個(gè)參數(shù)。

Conv2D(
    nb_filter = 32,
    nb_row = 5,
    nb_col = 5,
    border_mode = 'same',
    input_shape = (28,28,1)
)

其中,nb_filter代表卷積層的輸出有多少個(gè)channel,卷積之后圖像會(huì)越來越厚,這就是卷積后圖像的厚度。nb_row和nb_col的組合就是卷積器的大小,這里卷積器是(5,5)的大小。border_mode代表著padding的方式,same表示卷積前后圖像的shape不變。input_shape代表輸入的shape。

2、MaxPooling2D

MaxPooling2D指的是池化層,在使用它之前需要在庫函數(shù)處import它。

from keras.layers import MaxPooling2D

在實(shí)際使用時(shí),需要用到幾個(gè)參數(shù)。

MaxPooling2D(
    pool_size = (2,2),
    strides = (2,2),
    border_mode = 'same'
)

其中,pool_size表示池化器的大小,在這里,池化器的shape是(2,2)。strides是池化器的步長,這里在X和Y方向上都是2,池化后,輸出比輸入的shape小了1/2。border_mode代表著padding的方式。

3、Flatten

Flatten用于將卷積池化后最后的輸出變?yōu)橐痪S向量,這樣才可以和全連接層連接,用于計(jì)算。在使用前需要用import導(dǎo)入。

from keras.layers import Flatten

在實(shí)際使用時(shí),在最后一個(gè)池化層后直接添加層即可

model.add(Flatten())

全部代碼

這是一個(gè)卷積神經(jīng)網(wǎng)絡(luò)的例子,用于識別手寫體,其神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如下:

卷積層1->池化層1->卷積層2->池化層2->flatten->全連接層1->全連接層2->全連接層3。

單個(gè)樣本的shape如下:

(28,28,1)->(28,28,32)->(14,14,32)->(14,14,64)->(7,7,64)->(3136)->(1024)->(256)

import numpy as np
from keras.models import Sequential
from keras.layers import Dense,Activation,Conv2D,MaxPooling2D,Flatten ## 全連接層
from keras.datasets import mnist
from keras.utils import np_utils
from keras.optimizers import Adam
(X_train,Y_train),(X_test,Y_test) = mnist.load_data()
X_train = X_train.reshape(-1,28,28,1)
X_test = X_test.reshape(-1,28,28,1)
Y_train = np_utils.to_categorical(Y_train,num_classes= 10)
Y_test = np_utils.to_categorical(Y_test,num_classes= 10)
model = Sequential()
# conv1
model.add(
    Conv2D(
        nb_filter = 32,
        nb_row = 5,
        nb_col = 5,
        border_mode = 'same',
        input_shape = (28,28,1)
    )
)
model.add(Activation("relu"))
# pool1
model.add(
    MaxPooling2D(
        pool_size = (2,2),
        strides = (2,2),
        border_mode = 'same'
    )
)
# conv2
model.add(
    Conv2D(
        nb_filter = 64,
        nb_row = 5,
        nb_col = 5,
        border_mode = 'same'
    )
)
model.add(Activation("relu"))
# pool2
model.add(
    MaxPooling2D(
        pool_size = (2,2),
        strides = (2,2),
        border_mode = 'same'
    )
)
# 全連接層
model.add(Flatten())
model.add(Dense(1024))
model.add(Activation("relu"))
model.add(Dense(256))
model.add(Activation("relu"))
model.add(Dense(10))
model.add(Activation("softmax"))
adam = Adam(lr = 1e-4)
## compile
model.compile(loss = 'categorical_crossentropy',optimizer = adam,metrics = ['accuracy'])
## tarin
print("\ntraining")
cost = model.fit(X_train,Y_train,nb_epoch = 2,batch_size = 32)
print("\nTest")
## acc
cost,accuracy = model.evaluate(X_test,Y_test)
## W,b = model.layers[0].get_weights()
print("accuracy:",accuracy)

實(shí)驗(yàn)結(jié)果為:

Epoch 1/2
60000/60000 [==============================] - 64s 1ms/step - loss: 0.7664 - acc: 0.9224
Epoch 2/2
60000/60000 [==============================] - 62s 1ms/step - loss: 0.0473 - acc: 0.9858
Test
10000/10000 [==============================] - 2s 169us/step
accuracy: 0.9856

以上就是python神經(jīng)網(wǎng)絡(luò)Keras構(gòu)建CNN網(wǎng)絡(luò)訓(xùn)練的詳細(xì)內(nèi)容,更多關(guān)于Keras構(gòu)建CNN網(wǎng)絡(luò)訓(xùn)練的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • python出現(xiàn)RuntimeError錯(cuò)誤問題及解決

    python出現(xiàn)RuntimeError錯(cuò)誤問題及解決

    這篇文章主要介紹了python出現(xiàn)RuntimeError錯(cuò)誤問題及解決方案,具有很好的參考價(jià)值,希望對大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2022-05-05
  • pycharm中dgl安裝報(bào)錯(cuò)FileNotFoundError:Could not find module ‘E:\XXXX\XXXX\lib\site-packages\dgl\dgl.dl

    pycharm中dgl安裝報(bào)錯(cuò)FileNotFoundError:Could not find&nb

    這篇文章主要介紹了pycharm中dgl安裝報(bào)錯(cuò)FileNotFoundError:Could not find module ‘E:\XXXX\XXXX\lib\site-packages\dgl\dgl.dl問題,具有很好的參考價(jià)值,希望對大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2024-02-02
  • Python進(jìn)階之迭代器與迭代器切片教程

    Python進(jìn)階之迭代器與迭代器切片教程

    迭代器是 Python 中獨(dú)特的一種高級特性,而切片也是一種高級特性,兩者相結(jié)合,會(huì)產(chǎn)生什么樣的結(jié)果呢,需要的朋友可以參考下
    2020-01-01
  • 在Python下進(jìn)行UDP網(wǎng)絡(luò)編程的教程

    在Python下進(jìn)行UDP網(wǎng)絡(luò)編程的教程

    這篇文章主要介紹了在Python下進(jìn)行UDP網(wǎng)絡(luò)編程的教程,UDP編程是Python網(wǎng)絡(luò)編程部分的基礎(chǔ)知識,示例代碼基于Python2.x版本,需要的朋友可以參考下
    2015-04-04
  • Python多線程中線程數(shù)量如何控制

    Python多線程中線程數(shù)量如何控制

    本文主要介紹了Python多線程中線程數(shù)量如何控制,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-01-01
  • Python 剪繩子的多種思路實(shí)現(xiàn)(動(dòng)態(tài)規(guī)劃和貪心)

    Python 剪繩子的多種思路實(shí)現(xiàn)(動(dòng)態(tài)規(guī)劃和貪心)

    這篇文章主要介紹了Python 剪繩子的多種思路實(shí)現(xiàn)(動(dòng)態(tài)規(guī)劃和貪心),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2020-02-02
  • Python深入06——python的內(nèi)存管理詳解

    Python深入06——python的內(nèi)存管理詳解

    本篇文章主要介紹了python的內(nèi)存管理詳解,語言的內(nèi)存管理是語言設(shè)計(jì)的一個(gè)重要方面。它是決定語言性能的重要因素。有興趣的同學(xué)可以了解一下。
    2016-12-12
  • 一文搞懂關(guān)于?sys.argv?的詳解

    一文搞懂關(guān)于?sys.argv?的詳解

    sys.argv?其實(shí)就是一個(gè)列表,里邊需要用戶傳入的參數(shù),關(guān)鍵就是要明白這參數(shù)是從程序外部輸入的,而非代碼本身的什么地方,要想看到它的效果就應(yīng)該將程序保存了,從外部來運(yùn)行程序并給出參數(shù),通過本文學(xué)習(xí)你將明白?sys.argv很多知識,感興趣的朋友一起看看吧
    2023-01-01
  • python 監(jiān)控服務(wù)器是否有人遠(yuǎn)程登錄(詳細(xì)思路+代碼)

    python 監(jiān)控服務(wù)器是否有人遠(yuǎn)程登錄(詳細(xì)思路+代碼)

    這篇文章主要介紹了python 監(jiān)控服務(wù)器是否有人遠(yuǎn)程登錄的方法,幫助大家利用python 監(jiān)控服務(wù)器,感興趣的朋友可以了解下
    2020-12-12
  • python的reverse函數(shù)翻轉(zhuǎn)結(jié)果為None的問題

    python的reverse函數(shù)翻轉(zhuǎn)結(jié)果為None的問題

    這篇文章主要介紹了python的reverse函數(shù)翻轉(zhuǎn)結(jié)果為None的問題,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-05-05

最新評論