欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

TensorFlow深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)CNN

 更新時間:2018年03月09日 10:58:50   作者:marsjhao  
這篇文章主要介紹了TensorFlow深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)CNN

一、卷積神經(jīng)網(wǎng)絡(luò)的概述

卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeural Network,CNN)最初是為解決圖像識別等問題設(shè)計的,CNN現(xiàn)在的應(yīng)用已經(jīng)不限于圖像和視頻,也可用于時間序列信號,比如音頻信號和文本數(shù)據(jù)等。CNN作為一個深度學(xué)習(xí)架構(gòu)被提出的最初訴求是降低對圖像數(shù)據(jù)預(yù)處理的要求,避免復(fù)雜的特征工程。在卷積神經(jīng)網(wǎng)絡(luò)中,第一個卷積層會直接接受圖像像素級的輸入,每一層卷積(濾波器)都會提取數(shù)據(jù)中最有效的特征,這種方法可以提取到圖像中最基礎(chǔ)的特征,而后再進行組合和抽象形成更高階的特征,因此CNN在理論上具有對圖像縮放、平移和旋轉(zhuǎn)的不變性。

卷積神經(jīng)網(wǎng)絡(luò)CNN的要點就是局部連接(LocalConnection)、權(quán)值共享(Weights Sharing)和池化層(Pooling)中的降采樣(Down-Sampling)。其中,局部連接和權(quán)值共享降低了參數(shù)量,使訓(xùn)練復(fù)雜度大大下降并減輕了過擬合。同時權(quán)值共享還賦予了卷積網(wǎng)絡(luò)對平移的容忍性,池化層降采樣則進一步降低了輸出參數(shù)量并賦予模型對輕度形變的容忍性,提高了模型的泛化能力??梢园丫矸e層卷積操作理解為用少量參數(shù)在圖像的多個位置上提取相似特征的過程。

卷積層的空間排列:上文講解了卷積層中每個神經(jīng)元與輸入數(shù)據(jù)體之間的連接方式,但是尚未討論輸出數(shù)據(jù)體中神經(jīng)元的數(shù)量,以及它們的排列方式。3個超參數(shù)控制著輸出數(shù)據(jù)體的尺寸:深度(depth),步長(stride)和零填充(zero-padding)。首先,輸出數(shù)據(jù)體的深度是一個超參數(shù):它和使用的濾波器的數(shù)量一致,而每個濾波器在輸入數(shù)據(jù)中尋找一些不同的東西。其次,在滑動濾波器的時候,必須指定步長。有時候?qū)⑤斎霐?shù)據(jù)體用0在邊緣處進行填充是很方便的。這個零填充(zero-padding)的尺寸是一個超參數(shù)。零填充有一個良好性質(zhì),即可以控制輸出數(shù)據(jù)體的空間尺寸(最常用的是用來保持輸入數(shù)據(jù)體在空間上的尺寸,這樣輸入和輸出的寬高都相等)。輸出數(shù)據(jù)體在空間上的尺寸可以通過輸入數(shù)據(jù)體尺寸(W),卷積層中神經(jīng)元的感受野尺寸(F),步長(S)和零填充的數(shù)量(P)的函數(shù)來計算。(這里假設(shè)輸入數(shù)組的空間形狀是正方形,即高度和寬度相等)輸出數(shù)據(jù)體的空間尺寸為(W-F +2P)/S+1,在計算上,輸入數(shù)據(jù)體的長和寬按照該公式計算,深度依賴于濾波器的數(shù)量。步長的限制:注意這些空間排列的超參數(shù)之間是相互限制的。舉例說來,當(dāng)輸入尺寸W=10,不使用零填充則P=0,濾波器尺寸F=3,這樣步長S=2就行不通,結(jié)果4.5不是整數(shù),這就是說神經(jīng)元不能整齊對稱地滑過輸入數(shù)據(jù)體。

匯聚層使用MAX操作,對輸入數(shù)據(jù)體的每一個深度切片獨立進行操作,改變它的空間尺寸。最常見的形式是匯聚層使用尺寸2x2的濾波器,以步長為2來對每個深度切片進行降采樣,將其中75%的激活信息都丟掉。每個MAX操作是從4個數(shù)字中取最大值(也就是在深度切片中某個2x2的區(qū)域)。深度保持不變。

二、卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

卷積神經(jīng)網(wǎng)絡(luò)通常是由三種層構(gòu)成:卷積層,匯聚層(除非特別說明,一般就是最大值匯聚)和全連接層(fully-connected簡稱FC)。ReLU激活函數(shù)也應(yīng)該算是是一層,它逐元素地進行激活函數(shù)操作。

卷積神經(jīng)網(wǎng)絡(luò)最常見的形式就是將一些卷積層和ReLU層放在一起,其后緊跟匯聚層,然后重復(fù)如此直到圖像在空間上被縮小到一個足夠小的尺寸,在某個地方過渡成成全連接層也較為常見。最后的全連接層得到輸出,比如分類評分等。

最常見的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如下:

INPUT -> [[CONV -> RELU]*N ->POOL?]*M -> [FC -> RELU]*K -> FC

其中*指的是重復(fù)次數(shù),POOL?指的是一個可選的匯聚層。其中N >=0,通常N<=3,M>=0,K>=0,通常K<3。

幾個小濾波器卷積層的組合比一個大濾波器卷積層好。直觀說來,最好選擇帶有小濾波器的卷積層組合,而不是用一個帶有大的濾波器的卷積層。前者可以表達(dá)出輸入數(shù)據(jù)中更多個強力特征,使用的參數(shù)也更少。唯一的不足是,在進行反向傳播時,中間的卷積層可能會導(dǎo)致占用更多的內(nèi)存。

輸入層(包含圖像的)應(yīng)該能被2整除很多次。常用數(shù)字包括32(比如CIFAR-10),64,96(比如STL-10)或224(比如ImageNet卷積神經(jīng)網(wǎng)絡(luò)),384和512。

卷積層應(yīng)該使用小尺寸濾波器(比如3x3或最多5x5),使用步長S=1。還有一點非常重要,就是對輸入數(shù)據(jù)進行零填充,這樣卷積層就不會改變輸入數(shù)據(jù)在空間維度上的尺寸。一般對于任意F,當(dāng)P=(F-1)/2的時候能保持輸入尺寸。如果必須使用更大的濾波器尺寸(比如7x7之類),通常只用在第一個面對原始圖像的卷積層上。

匯聚層負(fù)責(zé)對輸入數(shù)據(jù)的空間維度進行降采樣,提升了模型的畸變?nèi)萑棠芰?。最常用的設(shè)置是用用2x2感受野的最大值匯聚,步長為2。注意這一操作將會把輸入數(shù)據(jù)中75%的激活數(shù)據(jù)丟棄(因為對寬度和高度都進行了2的降采樣)。另一個不那么常用的設(shè)置是使用3x3的感受野,步長為2。最大值匯聚的感受野尺寸很少有超過3的,因為匯聚操作過于激烈,易造成數(shù)據(jù)信息丟失,這通常會導(dǎo)致算法性能變差。

三、CNN最大的特點在于卷積的權(quán)值共享(參數(shù)共享),可以大幅度減少神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量,防止過擬合的同時又降低了神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度。如何理解?

假設(shè)輸入圖像尺寸是1000*1000并且假定是灰度圖像,即只有一個顏色通道。那么一張圖片就有100萬個像素點,輸入維度就是100萬。如果采用全連接層(Fully Connected Layer,F(xiàn)CL)的話,隱含層與輸入層相同大小(100萬個隱含層節(jié)點),那么將產(chǎn)生100萬*100萬=1萬億個連接,僅此就有1萬億個參數(shù)需要去訓(xùn)練,這是不可想象的??紤]到人的視覺感受野的概念,每一個感受野只接受一小塊區(qū)域的信號,每一個神經(jīng)元不需要接收全部像素點的信息,只需要接收局部像素點作為輸入,而將所有這些神經(jīng)元接收的局部信息綜合起來就可以得到全局的信息。于是將之前的全連接模式修改為局部連接,假設(shè)局部感受野大小是10*10,即每個隱含節(jié)點只與10*10個像素點相連,那么現(xiàn)在只需要10*10*100萬=1億個連接了,相比之前的1萬億已經(jīng)縮小了10000倍。假設(shè)我們的局部連接方式是卷積操作,即默認(rèn)每一個隱含節(jié)點的參數(shù)都完全一樣,那么我們的參數(shù)將會是10*10=100個。不論圖像尺寸有多大,都是這100個參數(shù),即卷積核的尺寸,這就是卷積對減小參數(shù)量的貢獻(xiàn)。這也就是所謂的權(quán)值共享。我們采取增加卷積核的數(shù)量來多提取一些特征,每一個卷積核濾波得到的圖像就是一類特征的映射,即一個Feature Map。一般來說,我們使用100個卷積核在第一個卷積層就足夠了,這樣我們有100*100=10000個參數(shù)相比之前的1億又縮小了10000倍。卷積的好處是,不管圖片尺寸如何,需要訓(xùn)練的參數(shù)數(shù)量只跟卷積核大小和數(shù)量有關(guān),并且需要注意的是,盡管參數(shù)的數(shù)量大大下降了,但是我們的隱含節(jié)點的數(shù)量并沒有下降,隱含節(jié)點的數(shù)量只跟卷積的步長有關(guān)系。

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • Python api構(gòu)建tensorrt加速模型的步驟詳解

    Python api構(gòu)建tensorrt加速模型的步驟詳解

    小編個人認(rèn)為python比c++更容易讀并且已經(jīng)有很多包裝很好的科學(xué)運算庫(numpy,scikit等),今天通過本文給大家分享Python api構(gòu)建tensorrt加速模型的步驟,感興趣的朋友一起看看吧
    2021-09-09
  • python在Windows下安裝setuptools(easy_install工具)步驟詳解

    python在Windows下安裝setuptools(easy_install工具)步驟詳解

    這篇文章主要介紹了python在Windows下安裝setuptools(easy_install工具)步驟,簡單介紹了setuptools并分析了其安裝步驟與所涉及的相關(guān)軟件,需要的朋友可以參考下
    2016-07-07
  • Python入門之字典的使用教程

    Python入門之字典的使用教程

    Python字典是一種可變?nèi)萜髂P?,且可存儲任意類型對象,如字符串、?shù)字、元組等其他容器模型。本文將為大家詳細(xì)講講字典的使用教程,需要的可以參考一下
    2022-09-09
  • python退出命令是什么?詳解python退出方法

    python退出命令是什么?詳解python退出方法

    在本篇內(nèi)容中我們給學(xué)習(xí)python編程的朋友們整理了關(guān)于python退出的命令和方法,需要的學(xué)習(xí)下。
    2018-12-12
  • 本地文件上傳到七牛云服務(wù)器示例(七牛云存儲)

    本地文件上傳到七牛云服務(wù)器示例(七牛云存儲)

    這篇文章主要介紹了使用PYTHON把本地文件上傳到七牛云服務(wù)的方法,開發(fā)環(huán)境是Python 2.7,大家參考使用吧
    2014-01-01
  • Numpy實現(xiàn)矩陣運算及線性代數(shù)應(yīng)用

    Numpy實現(xiàn)矩陣運算及線性代數(shù)應(yīng)用

    這篇文章主要介紹了Numpy實現(xiàn)矩陣運算及線性代數(shù)應(yīng)用,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2021-03-03
  • Django之form組件自動校驗數(shù)據(jù)實現(xiàn)

    Django之form組件自動校驗數(shù)據(jù)實現(xiàn)

    這篇文章主要介紹了Django之form組件自動校驗數(shù)據(jù)實現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2020-01-01
  • Python Sympy計算梯度、散度和旋度的實例

    Python Sympy計算梯度、散度和旋度的實例

    今天小編就為大家分享一篇Python Sympy計算梯度、散度和旋度的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-12-12
  • 深入淺析Python的類

    深入淺析Python的類

    這篇文章是一篇關(guān)于python基礎(chǔ)知識內(nèi)容,主要講述了關(guān)于類的相關(guān)知識點,有興趣的朋友參考下。
    2018-06-06
  • Python如何讀取16進制byte數(shù)據(jù)

    Python如何讀取16進制byte數(shù)據(jù)

    這篇文章主要介紹了Python如何讀取16進制byte數(shù)據(jù),具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2022-05-05

最新評論