欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Caffe卷積神經(jīng)網(wǎng)絡(luò)solver及其配置詳解

 更新時間:2022年06月29日 12:16:08   作者:denny402  
這篇文章主要為大家介紹了Caffe卷積神經(jīng)網(wǎng)絡(luò)solver及其配置詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪

引言

solver算是caffe的核心的核心,它協(xié)調(diào)著整個模型的運作。caffe程序運行必帶的一個參數(shù)就是solver配置文件。運行代碼一般為

# caffe train --solver=*_slover.prototxt

在Deep Learning中,往往loss function是非凸的,沒有解析解,我們需要通過優(yōu)化方法來求解。solver的主要作用就是交替調(diào)用前向(forward)算法和后向(backward)算法來更新參數(shù),從而最小化loss,實際上就是一種迭代的優(yōu)化算法。

到目前的版本,caffe提供了六種優(yōu)化算法來求解最優(yōu)參數(shù),在solver配置文件中,通過設(shè)置type類型來選擇。

  • Stochastic Gradient Descent (type: "SGD"),
  • AdaDelta (type: "AdaDelta"),
  • Adaptive Gradient (type: "AdaGrad"),
  • Adam (type: "Adam"),
  • Nesterov’s Accelerated Gradient (type: "Nesterov") and
  • RMSprop (type: "RMSProp")

具體的每種方法的介紹,請看本系列的下一篇文章, 本文著重介紹solver配置文件的編寫。

Solver的流程:

  • 1.設(shè)計好需要優(yōu)化的對象,以及用于學(xué)習(xí)的訓(xùn)練網(wǎng)絡(luò)和用于評估的測試網(wǎng)絡(luò)。(通過調(diào)用另外一個配置文件prototxt來進(jìn)行)
  • 2.通過forward和backward迭代的進(jìn)行優(yōu)化來跟新參數(shù)。
  • 3.定期的評價測試網(wǎng)絡(luò)。 (可設(shè)定多少次訓(xùn)練后,進(jìn)行一次測試)
  • 4.在優(yōu)化過程中顯示模型和solver的狀態(tài)

在每一次的迭代過程中,solver做了這幾步工作:

  • 1、調(diào)用forward算法來計算最終的輸出值,以及對應(yīng)的loss
  • 2、調(diào)用backward算法來計算每層的梯度
  • 3、根據(jù)選用的slover方法,利用梯度進(jìn)行參數(shù)更新
  • 4、記錄并保存每次迭代的學(xué)習(xí)率、快照,以及對應(yīng)的狀態(tài)。

接下來,我們先來看一個實例:

net: "examples/mnist/lenet_train_test.prototxt"
test_iter: 100
test_interval: 500
base_lr: 0.01
momentum: 0.9
type: SGD
weight_decay: 0.0005
lr_policy: "inv"
gamma: 0.0001
power: 0.75
display: 100
max_iter: 20000
snapshot: 5000
snapshot_prefix: "examples/mnist/lenet"
solver_mode: CPU

接下來,我們對每一行進(jìn)行詳細(xì)解譯:

net: "examples/mnist/lenet_train_test.prototxt"

設(shè)置深度網(wǎng)絡(luò)模型。每一個模型就是一個net,需要在一個專門的配置文件中對net進(jìn)行配置,每個net由許多的layer所組成。每一個layer的具體配置方式可參考本系列文文章中的(2)-(5)。注意的是:文件的路徑要從caffe的根目錄開始,其它的所有配置都是這樣。

訓(xùn)練測試模型

也可用train_net和test_net來對訓(xùn)練模型和測試模型分別設(shè)定。例如:

train_net: "examples/hdf5_classification/logreg_auto_train.prototxt"
test_net: "examples/hdf5_classification/logreg_auto_test.prototxt"

接下來第二行:

test_iter: 100

這個要與test layer中的batch_size結(jié)合起來理解。mnist數(shù)據(jù)中測試樣本總數(shù)為10000,一次性執(zhí)行全部數(shù)據(jù)效率很低,因此我們將測試數(shù)據(jù)分成幾個批次來執(zhí)行,每個批次的數(shù)量就是batch_size。假設(shè)我們設(shè)置batch_size為100,則需要迭代100次才能將10000個數(shù)據(jù)全部執(zhí)行完。因此test_iter設(shè)置為100。執(zhí)行完一次全部數(shù)據(jù),稱之為一個epoch

test_interval: 500

測試間隔。也就是每訓(xùn)練500次,才進(jìn)行一次測試。

base_lr: 0.01
lr_policy: "inv"
gamma: 0.0001
power: 0.75

這四行可以放在一起理解,用于學(xué)習(xí)率的設(shè)置。只要是梯度下降法來求解優(yōu)化,都會有一個學(xué)習(xí)率,也叫步長。base_lr用于設(shè)置基礎(chǔ)學(xué)習(xí)率,在迭代的過程中,可以對基礎(chǔ)學(xué)習(xí)率進(jìn)行調(diào)整。怎么樣進(jìn)行調(diào)整,就是調(diào)整的策略,由lr_policy來設(shè)置。

lr_policy可以設(shè)置為下面這些值,相應(yīng)的學(xué)習(xí)率的計算為:

  • - fixed:保持base_lr不變.
  • - step: 如果設(shè)置為step,則還需要設(shè)置一個stepsize, 返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示當(dāng)前的迭代次數(shù)
  • - exp: 返回base_lr * gamma ^ iter, iter為當(dāng)前迭代次數(shù)
  • - inv: 如果設(shè)置為inv,還需要設(shè)置一個power, 返回base_lr * (1 + gamma * iter) ^ (- power)
  • - multistep:如果設(shè)置為multistep,則還需要設(shè)置一個stepvalue。這個參數(shù)和step很相似,step是均勻等間隔變化,而multistep則是根據(jù) stepvalue值變化
  • - poly:學(xué)習(xí)率進(jìn)行多項式誤差, 返回 base_lr (1 - iter/max_iter) ^ (power)
  • - sigmoid:學(xué)習(xí)率進(jìn)行sigmod衰減,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))

multistep示例:

base_lr: 0.01
momentum: 0.9
weight_decay: 0.0005
# The learning rate policy
lr_policy: "multistep"
gamma: 0.9
stepvalue: 5000
stepvalue: 7000
stepvalue: 8000
stepvalue: 9000
stepvalue: 9500

參數(shù)

接下來的參數(shù):

momentum :0.9

上一次梯度更新的權(quán)重,具體可參看下一篇文章。

type: SGD

優(yōu)化算法選擇。這一行可以省掉,因為默認(rèn)值就是SGD??偣灿辛N方法可選擇,在本文的開頭已介紹。

weight_decay: 0.0005

權(quán)重衰減項,防止過擬合的一個參數(shù)。

display: 100

每訓(xùn)練100次,在屏幕上顯示一次。如果設(shè)置為0,則不顯示。

max_iter: 20000

最大迭代次數(shù)。這個數(shù)設(shè)置太小,會導(dǎo)致沒有收斂,精確度很低。設(shè)置太大,會導(dǎo)致震蕩,浪費時間。

snapshot: 5000
snapshot_prefix: "examples/mnist/lenet"

快照。將訓(xùn)練出來的model和solver狀態(tài)進(jìn)行保存,snapshot用于設(shè)置訓(xùn)練多少次后進(jìn)行保存,默認(rèn)為0,不保存。snapshot_prefix設(shè)置保存路徑。

還可以設(shè)置snapshot_diff,是否保存梯度值,默認(rèn)為false,不保存。

也可以設(shè)置snapshot_format,保存的類型。有兩種選擇:HDF5 和BINARYPROTO ,默認(rèn)為BINARYPROTO

solver_mode: CPU

設(shè)置運行模式。默認(rèn)為GPU,如果你沒有GPU,則需要改成CPU,否則會出錯。

注意:以上的所有參數(shù)都是可選參數(shù),都有默認(rèn)值。根據(jù)solver方法(type)的不同,還有一些其它的參數(shù),在此不一一列舉。

以上就是Caffe卷積神經(jīng)網(wǎng)絡(luò)solver及其配置詳解的詳細(xì)內(nèi)容,更多關(guān)于Caffe solver配置的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • python如何實現(xiàn)代碼檢查

    python如何實現(xiàn)代碼檢查

    這篇文章主要介紹了python如何實現(xiàn)代碼檢查,如果代碼不規(guī)范,亂七八糟的,被小伙伴打死或者熬夜找bug事小,影響項目進(jìn)度或者破壞項目結(jié)構(gòu)就完蛋了,需要的朋友可以參考下
    2019-06-06
  • python將字符串list寫入excel和txt的實例

    python將字符串list寫入excel和txt的實例

    今天小編就為大家分享一篇python將字符串list寫入excel和txt的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-07-07
  • 如何用python批量調(diào)整視頻聲音

    如何用python批量調(diào)整視頻聲音

    這篇文章主要介紹了如何用python批量調(diào)整視頻聲音,幫助大家更好的理解和使用python,感興趣的朋友可以了解下
    2020-12-12
  • Python?dateutil庫簡化日期時間處理利器使用場景實踐

    Python?dateutil庫簡化日期時間處理利器使用場景實踐

    在Python中,處理日期和時間是常見的任務(wù)之一,dateutil庫是Python標(biāo)準(zhǔn)庫中datetime模塊的擴(kuò)展,提供了許多方便的工具和函數(shù),簡化了日期和時間的操作
    2023-12-12
  • Python調(diào)用http-post接口的實現(xiàn)方式

    Python調(diào)用http-post接口的實現(xiàn)方式

    這篇文章主要介紹了Python調(diào)用http-post接口的實現(xiàn)方式,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2023-08-08
  • python射線法判斷一個點在圖形區(qū)域內(nèi)外

    python射線法判斷一個點在圖形區(qū)域內(nèi)外

    這篇文章主要為大家詳細(xì)介紹了python射線法判斷一個點在圖形區(qū)域內(nèi)外,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2019-06-06
  • Python中文分詞庫jieba(結(jié)巴分詞)詳細(xì)使用介紹

    Python中文分詞庫jieba(結(jié)巴分詞)詳細(xì)使用介紹

    這篇文章主要介紹了Python中文分詞庫jieba(結(jié)巴分詞)提取詞,加載詞,修改詞頻,定義詞庫詳細(xì)使用介紹,需要的朋友可以參考下
    2022-04-04
  • 分享Pandas庫中的一些寶藏函數(shù)transform()

    分享Pandas庫中的一些寶藏函數(shù)transform()

    Pandas具有很多強(qiáng)大的功能,transform就是其中之一,利用它可以高效地匯總數(shù)據(jù)且不改變數(shù)據(jù)行數(shù),transform是一種什么數(shù)據(jù)操作?如果熟悉SQL的窗口函數(shù),就非常容易理解了
    2021-09-09
  • python Pandas如何對數(shù)據(jù)集隨機(jī)抽樣

    python Pandas如何對數(shù)據(jù)集隨機(jī)抽樣

    這篇文章主要介紹了python Pandas如何對數(shù)據(jù)集隨機(jī)抽樣,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2019-07-07
  • 使用Django框架創(chuàng)建項目

    使用Django框架創(chuàng)建項目

    這篇文章介紹了使用Django框架創(chuàng)建項目的方法,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2022-06-06

最新評論