欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

YOLOV5超參數(shù)介紹以及優(yōu)化策略

 更新時間:2022年09月16日 08:56:50   作者:李?柏?霖  
yolov5提供了一種超參數(shù)優(yōu)化的方法,這篇文章主要給大家介紹了關于YOLOV5超參數(shù)介紹以及優(yōu)化策略的相關資料,文中通過實例代碼介紹的非常詳細,對大家的學習或工具有一定的參考學習價值,需要的朋友可以參考下

yaml文件

模型深度&寬度

nc: 3  # 類別數(shù)量
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple

depth_multiple:控制子模塊數(shù)量=int(number*depth)

width_multiple:控制卷積核的數(shù)量=int(number*width)

Anchor

anchors:
  - [10,13, 16,30, 33,23]  # P3/8,檢測小目標,10,13是一組尺寸,總共三組檢測小目標
  - [30,61, 62,45, 59,119]  # P4/16,檢測中目標,共三組
  - [116,90, 156,198, 373,326]  # P5/32,檢測大目標,共三組

該anchor尺寸是為輸入圖像640×640分辨率預設的,實現(xiàn)了即可以在小特征圖(feature map)上檢測大目標,也可以在大特征圖上檢測小目標。三種尺寸的特征圖,每個特征圖上的格子有三個尺寸的anchor。

Backbone

backbone:
  # [from, number, module, args]
  [[-1, 1, Focus, [64, 3]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 9, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 1, SPP, [1024, [5, 9, 13]]],
   [-1, 3, C3, [1024, False]],  # 9
  ]

具體解釋如下:

from:輸入來自那一層,-1代表上一次,1代表第1層,3代表第3層

number:模塊的數(shù)量,最終數(shù)量需要乘width,然后四舍五入取整,如果小于1,取1。

module:子模塊

args:模塊參數(shù),channel,kernel_size,stride,padding,bias等

Focus:對特征圖進行切片操作,[64,3]得到[3,32,3],即輸入channel=3(RGB),輸出為640.5(width_multiple)=32,3為卷積核尺寸。

Conv:nn.conv(kenel_size=1,stride=1,groups=1,bias=False) + Bn + Leaky_ReLu。[-1, 1, Conv, [128, 3, 2]]:輸入來自上一層,模塊數(shù)量為1個,子模塊為Conv,網(wǎng)絡中最終有1280.5=32個卷積核,卷積核尺寸為3,stride=2,。

BottleNeckCSP:借鑒CSPNet網(wǎng)絡結構,由3個卷積層和X個殘差模塊Concat組成,若有False,則沒有殘差模塊,那么組成結構為nn.conv+Bn+Leaky_ReLu

SPP:[-1, 1, SPP, [1024, [5, 9, 13]]]表示5×5,9×9,13×13的最大池化方式,進行多尺度融合。源代碼如下:

k = [5, 9, 13]
self.m = nn.ModuleList([nn.MaxPool2d(kernel_size=x, stride=1, padding=x // 2) for x in k])

Head

head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],  上采樣
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4  代表concat上一層和第6層
   [-1, 3, C3, [512, False]],  # 13  說明該層是第13層網(wǎng)絡
 
   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)
 
   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)
 
   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)
 
   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5),[17, 20, 23]說明輸入來自第17,20,23層
  

YOLOv5中的Head包括Neck和Detect_head兩部分。Neck采用了PANet機構,Detect結構和YOLOv3中的Head一樣。其中BottleNeckCSP帶有False,說明沒有使用殘差結構,而是采用的backbone中的Conv。

超參數(shù)

初始化超參

YOLOv5的超參文件見data/hyp.finetune.yaml(適用VOC數(shù)據(jù)集)或者hyo.scrach.yaml(適用COCO數(shù)據(jù)集)文件

lr0: 0.01  # 初始學習率 (SGD=1E-2, Adam=1E-3)
lrf: 0.2  # 循環(huán)學習率 (lr0 * lrf)
momentum: 0.937  # SGD momentum/Adam beta1 學習率動量
weight_decay: 0.0005  # 權重衰減系數(shù) 
warmup_epochs: 3.0  # 預熱學習 (fractions ok)
warmup_momentum: 0.8  # 預熱學習動量
warmup_bias_lr: 0.1  # 預熱初始學習率
box: 0.05  # iou損失系數(shù)
cls: 0.5  # cls損失系數(shù)
cls_pw: 1.0  # cls BCELoss正樣本權重
obj: 1.0  # 有無物體系數(shù)(scale with pixels)
obj_pw: 1.0  # 有無物體BCELoss正樣本權重
iou_t: 0.20  # IoU訓練時的閾值
anchor_t: 4.0  # anchor的長寬比(長:寬 = 4:1)
# anchors: 3  # 每個輸出層的anchors數(shù)量(0 to ignore)
#以下系數(shù)是數(shù)據(jù)增強系數(shù),包括顏色空間和圖片空間
fl_gamma: 0.0  # focal loss gamma (efficientDet default gamma=1.5)
hsv_h: 0.015  # 色調 (fraction)
hsv_s: 0.7  # 飽和度 (fraction)
hsv_v: 0.4  # 亮度 (fraction)
degrees: 0.0  # 旋轉角度 (+/- deg)
translate: 0.1  # 平移(+/- fraction)
scale: 0.5  # 圖像縮放 (+/- gain)
shear: 0.0  # 圖像剪切 (+/- deg)
perspective: 0.0  # 透明度 (+/- fraction), range 0-0.001
flipud: 0.0  # 進行上下翻轉概率 (probability)
fliplr: 0.5  # 進行左右翻轉概率 (probability)
mosaic: 1.0  # 進行Mosaic概率 (probability)
mixup: 0.0  # 進行圖像混疊概率(即,多張圖像重疊在一起) (probability)

訓練超參

訓練超參數(shù)包括:yaml文件的選擇,和訓練圖片的大小,預訓練,batch,epoch等。

可以直接在train.py的parser中修改,也可以在命令行執(zhí)行時修改,如:$ python train.py --data coco.yaml --cfg yolov5s.yaml --weights ‘’ --batch-size 64

–data指定訓練數(shù)據(jù)文件 --cfg設置網(wǎng)絡結構的配置文件 –weihts加載預訓練模型的路徑

優(yōu)化策略

1)數(shù)增強策略

從數(shù)據(jù)角度,我們通過粘貼、裁剪、mosaic、仿射變換、顏色空間轉換等對樣本進行增強,增加目標多樣性,以提升模型的檢測與分類精度。

2)SAM優(yōu)化器

SAM優(yōu)化器[4]可使損失值和損失銳度同時最小化,并可以改善各種基準數(shù)據(jù)集(例如CIFAR-f10、100g,ImageNet,微調任務)和模型的模型泛化能力,從而產(chǎn)生了多種最新性能。另外, SAM優(yōu)化器具有固有的魯棒性。

經(jīng)實驗對比,模型進行優(yōu)化器梯度歸一化和采用SAM優(yōu)化器,約有0.027點的提升。

3)Varifocal Loss損失函數(shù)

Varifocal Loss主要訓練密集目標檢測器使IOU感知的分類得分(IASC)回歸,來提高檢測精度。而目標遮擋是密集目標的特征之一,因此嘗試使用該loss來緩解目標遮擋造成漏檢現(xiàn)象。并且與focal loss不同,varifocal loss是不對稱對待正負樣本所帶來的損失。

4)凍結訓練

在訓練過程中采取常規(guī)訓練與凍結訓練想相結合的方式迭代,進一步抑制訓練過程中容易出現(xiàn)的過擬合現(xiàn)象,具體訓練方案是:1)常規(guī)訓練;2)加入凍結模塊的分步訓練1;3)加入凍結模塊的分步訓練2。

我們詳細講解以上步驟。第一步:從訓練數(shù)據(jù)中隨機選取一半,進行yolov5常規(guī)訓練,該過程中所有的參數(shù)是同時更新的。具體流程如下:

第二步分布迭代1就是采用的凍結模塊進行,數(shù)據(jù)是隨機選取訓練數(shù)據(jù)的一半,預訓練模型是第一步常規(guī)訓練的最好模型,按照凍結訓練方式進行訓練。這個流程循環(huán)多次,獲得model2。

第三步分布迭代2同樣采用的是凍結模塊進行,數(shù)據(jù)是所有訓練數(shù)據(jù),由于參數(shù)已經(jīng)學過,這時我們將學習率調小一個量級,同樣也是按照凍結訓練方式進行訓練。這個流程只循環(huán)一次,獲得最終的模型。

兩步的具體流程如下:

5)訓練時間優(yōu)化

最初我們直接采用yolov5訓練,這種數(shù)據(jù)加載方式是以張為單位,基于像素的訪問,但是訓練時速度很慢,可能受其他線程影響造成的,大概一輪要40分鐘左右。然后我們就嘗試了cache這種方式,它是將所有訓練數(shù)據(jù)存入到內(nèi)存中,我們以6406403的輸入圖像為例,占道數(shù)據(jù)總共有10147張,全部讀進去大約占11.6G的內(nèi)存,平臺是提供12G的內(nèi)存,幾乎將內(nèi)存占滿,也會導致訓練變慢;于是我們就嘗試改進訓練讀取數(shù)據(jù)方式,我們采用的是cache+圖像編解碼的方式,內(nèi)存占用僅是cache的1/6,由于添加了編解碼,速度比cache慢點,但從數(shù)據(jù)比較來看,相差無幾。這樣既能節(jié)省內(nèi)存又能加快訓練速度。節(jié)省了我們訓練過程的極力值和加快實驗的步伐。

總結

到此這篇關于YOLOV5超參數(shù)介紹以及優(yōu)化策略的文章就介紹到這了,更多相關YOLOV5超參數(shù)及優(yōu)化內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • pytorch使用tensorboardX進行l(wèi)oss可視化實例

    pytorch使用tensorboardX進行l(wèi)oss可視化實例

    今天小編就為大家分享一篇pytorch使用tensorboardX進行l(wèi)oss可視化實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-02-02
  • python設置環(huán)境變量的原因和方法

    python設置環(huán)境變量的原因和方法

    在本篇文章中我們給大家整理了關于python為什么要設置環(huán)境變量的相關知識點,有興趣的朋友們參考下。
    2019-06-06
  • Python3實現(xiàn)取圖片中特定的像素替換指定的顏色示例

    Python3實現(xiàn)取圖片中特定的像素替換指定的顏色示例

    這篇文章主要介紹了Python3實現(xiàn)取圖片中特定的像素替換指定的顏色,涉及Python3針對圖片文件的讀取、轉換、生成等相關操作技巧,需要的朋友可以參考下
    2019-01-01
  • pytorch使用nn.Moudle實現(xiàn)邏輯回歸

    pytorch使用nn.Moudle實現(xiàn)邏輯回歸

    這篇文章主要為大家詳細介紹了pytorch使用nn.Moudle實現(xiàn)邏輯回歸,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2022-07-07
  • python中圖片文件路徑格式如何使用

    python中圖片文件路徑格式如何使用

    這篇文章主要介紹了python中圖片文件路徑格式如何使用問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2023-08-08
  • Python接口自動化淺析如何處理動態(tài)數(shù)據(jù)

    Python接口自動化淺析如何處理動態(tài)數(shù)據(jù)

    本文是python接口自動化系列文章,主要介紹了接口自動化過程中,動態(tài)數(shù)據(jù)如何生成、動態(tài)數(shù)據(jù)與數(shù)據(jù)庫數(shù)據(jù)進行對比并替換,有需要的朋友可以參考下
    2021-08-08
  • python爬取豆瓣電影TOP250數(shù)據(jù)

    python爬取豆瓣電影TOP250數(shù)據(jù)

    這次以豆瓣電影TOP250網(wǎng)為例編寫一個爬蟲程序,并將爬取到的數(shù)據(jù)(排名、電影名和電影海報網(wǎng)址)存入MySQL數(shù)據(jù)庫中。
    2021-05-05
  • Python大批量搜索引擎圖像爬蟲工具詳解

    Python大批量搜索引擎圖像爬蟲工具詳解

    這篇文章主要介紹了Python大批量搜索引擎圖像爬蟲工具,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-11-11
  • Python 并列和或者條件的使用說明

    Python 并列和或者條件的使用說明

    這篇文章主要介紹了Python 并列和或者條件的使用說明,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2021-03-03
  • Python 實現(xiàn)簡單的電話本功能

    Python 實現(xiàn)簡單的電話本功能

    這篇文章主要介紹了Python 實現(xiàn)簡單的電話本功能的相關資料,包括添加聯(lián)系人信息,查找姓名顯示聯(lián)系人,存儲聯(lián)系人到 TXT 文檔等內(nèi)容,十分的細致,有需要的小伙伴可以參考下
    2015-08-08

最新評論