欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Caffe卷積神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)層及參數(shù)

 更新時間:2022年06月29日 10:58:32   作者:denny402  
這篇文章主要為大家介紹了Caffe卷積神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)層及參數(shù)示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪

引言

要運(yùn)行caffe,需要先創(chuàng)建一個模型(model),如比較常用的Lenet,Alex等, 而一個模型由多個屋(layer)構(gòu)成,每一屋又由許多參數(shù)組成。所有的參數(shù)都定義在caffe.proto這個文件中。要熟練使用caffe,最重要的就是學(xué)會配置文件(prototxt)的編寫。

層有很多種類型,比如Data,Convolution,Pooling等,層之間的數(shù)據(jù)流動是以Blobs的方式進(jìn)行。

數(shù)據(jù)層

今天我們就先介紹一下數(shù)據(jù)層.

數(shù)據(jù)層是每個模型的最底層,是模型的入口,不僅提供數(shù)據(jù)的輸入,也提供數(shù)據(jù)從Blobs轉(zhuǎn)換成別的格式進(jìn)行保存輸出。通常數(shù)據(jù)的預(yù)處理(如減去均值, 放大縮小, 裁剪和鏡像等),也在這一層設(shè)置參數(shù)實現(xiàn)。

數(shù)據(jù)來源可以來自高效的數(shù)據(jù)庫(如LevelDB和LMDB),也可以直接來自于內(nèi)存。如果不是很注重效率的話,數(shù)據(jù)也可來自磁盤的hdf5文件和圖片格式文件。

所有的數(shù)據(jù)層的都具有的公用參數(shù):先看示例

layer {
  name: "cifar"
  type: "Data"
  top: "data"
  top: "label"
  include {
    phase: TRAIN
  }
  transform_param {
    mean_file: "examples/cifar10/mean.binaryproto"
  }
  data_param {
    source: "examples/cifar10/cifar10_train_lmdb"
    batch_size: 100
    backend: LMDB
  }
}

name: 表示該層的名稱,可隨意取

type: 層類型,如果是Data,表示數(shù)據(jù)來源于LevelDB或LMDB。根據(jù)數(shù)據(jù)的來源不同,數(shù)據(jù)層的類型也不同(后面會詳細(xì)闡述)。一般在練習(xí)的時候,我們都是采 用的LevelDB或LMDB數(shù)據(jù),因此層類型設(shè)置為Data。

top或bottom: 每一層用bottom來輸入數(shù)據(jù),用top來輸出數(shù)據(jù)。如果只有top沒有bottom,則此層只有輸出,沒有輸入。反之亦然。如果有多個 top或多個bottom,表示有多個blobs數(shù)據(jù)的輸入和輸出。

data 與 label: 在數(shù)據(jù)層中,至少有一個命名為data的top。如果有第二個top,一般命名為label。 這種(data,label)配對是分類模型所必需的。

include: 一般訓(xùn)練的時候和測試的時候,模型的層是不一樣的。該層(layer)是屬于訓(xùn)練階段的層,還是屬于測試階段的層,需要用include來指定。如果沒有include參數(shù),則表示該層既在訓(xùn)練模型中,又在測試模型中。

Transformations: 數(shù)據(jù)的預(yù)處理,可以將數(shù)據(jù)變換到定義的范圍內(nèi)。如設(shè)置scale為0.00390625,實際上就是1/255,即將輸入數(shù)據(jù)由0-255歸一化到0-1之間

其它的數(shù)據(jù)預(yù)處理也在這個地方設(shè)置:

transform_param {
    scale: 0.00390625
    mean_file_size: "examples/cifar10/mean.binaryproto"
    # 用一個配置文件來進(jìn)行均值操作
    mirror: 1  # 1表示開啟鏡像,0表示關(guān)閉,也可用ture和false來表示
    # 剪裁一個 227*227的圖塊,在訓(xùn)練階段隨機(jī)剪裁,在測試階段從中間裁剪
    crop_size: 227
  }

后面的data_param部分,就是根據(jù)數(shù)據(jù)的來源不同,來進(jìn)行不同的設(shè)置。

1、數(shù)據(jù)來自于數(shù)據(jù)庫(如LevelDB和LMDB)

層類型(layer type):Data

必須設(shè)置的參數(shù):

source: 包含數(shù)據(jù)庫的目錄名稱,如examples/mnist/mnist_train_lmdb

batch_size: 每次處理的數(shù)據(jù)個數(shù),如64

可選的參數(shù):

rand_skip: 在開始的時候,路過某個數(shù)據(jù)的輸入。通常對異步的SGD很有用。

backend: 選擇是采用LevelDB還是LMDB, 默認(rèn)是LevelDB.

示例:

layer {
  name: "mnist"
  type: "Data"
  top: "data"
  top: "label"
  include {
    phase: TRAIN
  }
  transform_param {
    scale: 0.00390625
  }
  data_param {
    source: "examples/mnist/mnist_train_lmdb"
    batch_size: 64
    backend: LMDB
  }
}

2、數(shù)據(jù)來自于內(nèi)存

層類型:MemoryData

必須設(shè)置的參數(shù):

batch_size:每一次處理的數(shù)據(jù)個數(shù),比如2

channels:通道數(shù)

height:高度

width: 寬度

示例:

layer {
  top: "data"
  top: "label"
  name: "memory_data"
  type: "MemoryData"
  memory_data_param{
    batch_size: 2
    height: 100
    width: 100
    channels: 1
  }
  transform_param {
    scale: 0.0078125
    mean_file: "mean.proto"
    mirror: false
  }
}

3、數(shù)據(jù)來自于HDF5

層類型:HDF5Data

必須設(shè)置的參數(shù):

source: 讀取的文件名稱

batch_size: 每一次處理的數(shù)據(jù)個數(shù)

示例:

layer {
  name: "data"
  type: "HDF5Data"
  top: "data"
  top: "label"
  hdf5_data_param {
    source: "examples/hdf5_classification/data/train.txt"
    batch_size: 10
  }
}

4、數(shù)據(jù)來自于圖片

層類型:ImageData

必須設(shè)置的參數(shù):

source: 一個文本文件的名字,每一行給定一個圖片文件的名稱和標(biāo)簽(label)

batch_size: 每一次處理的數(shù)據(jù)個數(shù),即圖片數(shù)

可選參數(shù):

rand_skip:在開始的時候,路過某個數(shù)據(jù)的輸入。通常對異步的SGD很有用。

shuffle: 隨機(jī)打亂順序,默認(rèn)值為false

new_height,new_width: 如果設(shè)置,則將圖片進(jìn)行resize

示例:

layer {
  name: "data"
  type: "ImageData"
  top: "data"
  top: "label"
  transform_param {
    mirror: false
    crop_size: 227
    mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"
  }
  image_data_param {
    source: "examples/_temp/file_list.txt"
    batch_size: 50
    new_height: 256
    new_width: 256
  }
}

5、數(shù)據(jù)來源于Windows

層類型:WindowData

必須設(shè)置的參數(shù):

source: 一個文本文件的名字

batch_size: 每一次處理的數(shù)據(jù)個數(shù),即圖片數(shù)

示例:

layer {
  name: "data"
  type: "WindowData"
  top: "data"
  top: "label"
  include {
    phase: TRAIN
  }
  transform_param {
    mirror: true
    crop_size: 227
    mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"
  }
  window_data_param {
    source: "examples/finetune_pascal_detection/window_file_2007_trainval.txt"
    batch_size: 128
    fg_threshold: 0.5
    bg_threshold: 0.5
    fg_fraction: 0.25
    context_pad: 16
    crop_mode: "warp"
  }
}

以上就是Caffe卷積神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)層及參數(shù)的詳細(xì)內(nèi)容,更多關(guān)于Caffe數(shù)據(jù)層參數(shù)的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • pytest多進(jìn)程或多線程執(zhí)行測試實例

    pytest多進(jìn)程或多線程執(zhí)行測試實例

    這篇文章介紹了pytest多進(jìn)程或多線程執(zhí)行測試的實例,文中通過示例代碼介紹的非常詳細(xì)。對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2022-07-07
  • 教你用Python為二年級的學(xué)生批量生成數(shù)學(xué)題

    教你用Python為二年級的學(xué)生批量生成數(shù)學(xué)題

    這兩天在學(xué)習(xí)pthon,正好遇到老師布置的暑假作業(yè),需要家長給還在出試卷,下面這篇文章主要給大家介紹了關(guān)于如何用Python為二年級的學(xué)生批量生成數(shù)學(xué)題的相關(guān)資料,需要的朋友可以參考下
    2023-02-02
  • Pandas div()函數(shù)的具體使用

    Pandas div()函數(shù)的具體使用

    本文主要介紹了Pandas div()函數(shù)的具體使用,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-03-03
  • Python的Flask站點(diǎn)中集成xhEditor文本編輯器的教程

    Python的Flask站點(diǎn)中集成xhEditor文本編輯器的教程

    xhEditor是基于jQuery的Web端文本編輯器,基本的圖片上傳等功能也都帶有,這里我們就來看一下Python的Flask站點(diǎn)中集成xhEditor文本編輯器的教程
    2016-06-06
  • Python一行代碼實現(xiàn)生成和讀取二維碼

    Python一行代碼實現(xiàn)生成和讀取二維碼

    二維碼被稱為快速響應(yīng)碼,可能看起來很簡單,但它們能夠存儲大量數(shù)據(jù)。無論掃描二維碼時包含多少數(shù)據(jù),用戶都可以立即訪問信息。本文將用一行Python代碼實現(xiàn)二維碼的讀取與生成,需要的可以參考一下
    2022-02-02
  • python manage.py runserver流程解析

    python manage.py runserver流程解析

    這篇文章主要介紹了python manage.py runserver流程解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2019-11-11
  • python實現(xiàn)人臉識別代碼

    python實現(xiàn)人臉識別代碼

    這篇文章主要介紹了python實現(xiàn)人臉識別代碼,還是比較不錯的,這里分享個大家,共需要的朋友參考。
    2017-11-11
  • python tkinter之 復(fù)選、文本、下拉的實現(xiàn)

    python tkinter之 復(fù)選、文本、下拉的實現(xiàn)

    這篇文章主要介紹了python tkinter之 復(fù)選、文本、下拉的實現(xiàn),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-03-03
  • Python中的shutil模塊使用詳解

    Python中的shutil模塊使用詳解

    這篇文章主要介紹了Python中的shutil模塊使用詳解,shutil庫作為os模塊的補(bǔ)充,提供了復(fù)制、移動、刪除、壓縮、解壓等操作,這些 os 模塊中一般是沒有提供的,需要的朋友可以參考下
    2023-09-09
  • python中對開區(qū)間和閉區(qū)間的理解

    python中對開區(qū)間和閉區(qū)間的理解

    這篇文章主要介紹了python中對開區(qū)間和閉區(qū)間的理解,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2022-07-07

最新評論