YOLOV5超參數(shù)介紹以及優(yōu)化策略
yaml文件
模型深度&寬度
nc: 3 # 類別數(shù)量 depth_multiple: 0.33 # model depth multiple width_multiple: 0.50 # layer channel multiple
depth_multiple:控制子模塊數(shù)量=int(number*depth)
width_multiple:控制卷積核的數(shù)量=int(number*width)
Anchor
anchors: - [10,13, 16,30, 33,23] # P3/8,檢測小目標,10,13是一組尺寸,總共三組檢測小目標 - [30,61, 62,45, 59,119] # P4/16,檢測中目標,共三組 - [116,90, 156,198, 373,326] # P5/32,檢測大目標,共三組
該anchor尺寸是為輸入圖像640×640分辨率預設的,實現(xiàn)了即可以在小特征圖(feature map)上檢測大目標,也可以在大特征圖上檢測小目標。三種尺寸的特征圖,每個特征圖上的格子有三個尺寸的anchor。
Backbone
backbone: # [from, number, module, args] [[-1, 1, Focus, [64, 3]], # 0-P1/2 [-1, 1, Conv, [128, 3, 2]], # 1-P2/4 [-1, 3, C3, [128]], [-1, 1, Conv, [256, 3, 2]], # 3-P3/8 [-1, 9, C3, [256]], [-1, 1, Conv, [512, 3, 2]], # 5-P4/16 [-1, 9, C3, [512]], [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32 [-1, 1, SPP, [1024, [5, 9, 13]]], [-1, 3, C3, [1024, False]], # 9 ]
具體解釋如下:
from:輸入來自那一層,-1代表上一次,1代表第1層,3代表第3層
number:模塊的數(shù)量,最終數(shù)量需要乘width,然后四舍五入取整,如果小于1,取1。
module:子模塊
args:模塊參數(shù),channel,kernel_size,stride,padding,bias等
Focus:對特征圖進行切片操作,[64,3]得到[3,32,3],即輸入channel=3(RGB),輸出為640.5(width_multiple)=32,3為卷積核尺寸。
Conv:nn.conv(kenel_size=1,stride=1,groups=1,bias=False) + Bn + Leaky_ReLu。[-1, 1, Conv, [128, 3, 2]]:輸入來自上一層,模塊數(shù)量為1個,子模塊為Conv,網(wǎng)絡中最終有1280.5=32個卷積核,卷積核尺寸為3,stride=2,。
BottleNeckCSP:借鑒CSPNet網(wǎng)絡結構,由3個卷積層和X個殘差模塊Concat組成,若有False,則沒有殘差模塊,那么組成結構為nn.conv+Bn+Leaky_ReLu
SPP:[-1, 1, SPP, [1024, [5, 9, 13]]]表示5×5,9×9,13×13的最大池化方式,進行多尺度融合。源代碼如下:
k = [5, 9, 13] self.m = nn.ModuleList([nn.MaxPool2d(kernel_size=x, stride=1, padding=x // 2) for x in k])
Head
head: [[-1, 1, Conv, [512, 1, 1]], [-1, 1, nn.Upsample, [None, 2, 'nearest']], 上采樣 [[-1, 6], 1, Concat, [1]], # cat backbone P4 代表concat上一層和第6層 [-1, 3, C3, [512, False]], # 13 說明該層是第13層網(wǎng)絡 [-1, 1, Conv, [256, 1, 1]], [-1, 1, nn.Upsample, [None, 2, 'nearest']], [[-1, 4], 1, Concat, [1]], # cat backbone P3 [-1, 3, C3, [256, False]], # 17 (P3/8-small) [-1, 1, Conv, [256, 3, 2]], [[-1, 14], 1, Concat, [1]], # cat head P4 [-1, 3, C3, [512, False]], # 20 (P4/16-medium) [-1, 1, Conv, [512, 3, 2]], [[-1, 10], 1, Concat, [1]], # cat head P5 [-1, 3, C3, [1024, False]], # 23 (P5/32-large) [[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5),[17, 20, 23]說明輸入來自第17,20,23層
YOLOv5中的Head包括Neck和Detect_head兩部分。Neck采用了PANet機構,Detect結構和YOLOv3中的Head一樣。其中BottleNeckCSP帶有False,說明沒有使用殘差結構,而是采用的backbone中的Conv。
超參數(shù)
初始化超參
YOLOv5的超參文件見data/hyp.finetune.yaml(適用VOC數(shù)據(jù)集)或者hyo.scrach.yaml(適用COCO數(shù)據(jù)集)文件
lr0: 0.01 # 初始學習率 (SGD=1E-2, Adam=1E-3) lrf: 0.2 # 循環(huán)學習率 (lr0 * lrf) momentum: 0.937 # SGD momentum/Adam beta1 學習率動量 weight_decay: 0.0005 # 權重衰減系數(shù) warmup_epochs: 3.0 # 預熱學習 (fractions ok) warmup_momentum: 0.8 # 預熱學習動量 warmup_bias_lr: 0.1 # 預熱初始學習率 box: 0.05 # iou損失系數(shù) cls: 0.5 # cls損失系數(shù) cls_pw: 1.0 # cls BCELoss正樣本權重 obj: 1.0 # 有無物體系數(shù)(scale with pixels) obj_pw: 1.0 # 有無物體BCELoss正樣本權重 iou_t: 0.20 # IoU訓練時的閾值 anchor_t: 4.0 # anchor的長寬比(長:寬 = 4:1) # anchors: 3 # 每個輸出層的anchors數(shù)量(0 to ignore) #以下系數(shù)是數(shù)據(jù)增強系數(shù),包括顏色空間和圖片空間 fl_gamma: 0.0 # focal loss gamma (efficientDet default gamma=1.5) hsv_h: 0.015 # 色調 (fraction) hsv_s: 0.7 # 飽和度 (fraction) hsv_v: 0.4 # 亮度 (fraction) degrees: 0.0 # 旋轉角度 (+/- deg) translate: 0.1 # 平移(+/- fraction) scale: 0.5 # 圖像縮放 (+/- gain) shear: 0.0 # 圖像剪切 (+/- deg) perspective: 0.0 # 透明度 (+/- fraction), range 0-0.001 flipud: 0.0 # 進行上下翻轉概率 (probability) fliplr: 0.5 # 進行左右翻轉概率 (probability) mosaic: 1.0 # 進行Mosaic概率 (probability) mixup: 0.0 # 進行圖像混疊概率(即,多張圖像重疊在一起) (probability)
訓練超參
訓練超參數(shù)包括:yaml文件的選擇,和訓練圖片的大小,預訓練,batch,epoch等。
可以直接在train.py的parser中修改,也可以在命令行執(zhí)行時修改,如:$ python train.py --data coco.yaml --cfg yolov5s.yaml --weights ‘’ --batch-size 64
–data指定訓練數(shù)據(jù)文件 --cfg設置網(wǎng)絡結構的配置文件 –weihts加載預訓練模型的路徑
優(yōu)化策略
1)數(shù)增強策略
從數(shù)據(jù)角度,我們通過粘貼、裁剪、mosaic、仿射變換、顏色空間轉換等對樣本進行增強,增加目標多樣性,以提升模型的檢測與分類精度。
2)SAM優(yōu)化器
SAM優(yōu)化器[4]可使損失值和損失銳度同時最小化,并可以改善各種基準數(shù)據(jù)集(例如CIFAR-f10、100g,ImageNet,微調任務)和模型的模型泛化能力,從而產(chǎn)生了多種最新性能。另外, SAM優(yōu)化器具有固有的魯棒性。
經(jīng)實驗對比,模型進行優(yōu)化器梯度歸一化和采用SAM優(yōu)化器,約有0.027點的提升。
3)Varifocal Loss損失函數(shù)
Varifocal Loss主要訓練密集目標檢測器使IOU感知的分類得分(IASC)回歸,來提高檢測精度。而目標遮擋是密集目標的特征之一,因此嘗試使用該loss來緩解目標遮擋造成漏檢現(xiàn)象。并且與focal loss不同,varifocal loss是不對稱對待正負樣本所帶來的損失。
4)凍結訓練
在訓練過程中采取常規(guī)訓練與凍結訓練想相結合的方式迭代,進一步抑制訓練過程中容易出現(xiàn)的過擬合現(xiàn)象,具體訓練方案是:1)常規(guī)訓練;2)加入凍結模塊的分步訓練1;3)加入凍結模塊的分步訓練2。
我們詳細講解以上步驟。第一步:從訓練數(shù)據(jù)中隨機選取一半,進行yolov5常規(guī)訓練,該過程中所有的參數(shù)是同時更新的。具體流程如下:

第二步分布迭代1就是采用的凍結模塊進行,數(shù)據(jù)是隨機選取訓練數(shù)據(jù)的一半,預訓練模型是第一步常規(guī)訓練的最好模型,按照凍結訓練方式進行訓練。這個流程循環(huán)多次,獲得model2。
第三步分布迭代2同樣采用的是凍結模塊進行,數(shù)據(jù)是所有訓練數(shù)據(jù),由于參數(shù)已經(jīng)學過,這時我們將學習率調小一個量級,同樣也是按照凍結訓練方式進行訓練。這個流程只循環(huán)一次,獲得最終的模型。
兩步的具體流程如下:

5)訓練時間優(yōu)化
最初我們直接采用yolov5訓練,這種數(shù)據(jù)加載方式是以張為單位,基于像素的訪問,但是訓練時速度很慢,可能受其他線程影響造成的,大概一輪要40分鐘左右。然后我們就嘗試了cache這種方式,它是將所有訓練數(shù)據(jù)存入到內(nèi)存中,我們以6406403的輸入圖像為例,占道數(shù)據(jù)總共有10147張,全部讀進去大約占11.6G的內(nèi)存,平臺是提供12G的內(nèi)存,幾乎將內(nèi)存占滿,也會導致訓練變慢;于是我們就嘗試改進訓練讀取數(shù)據(jù)方式,我們采用的是cache+圖像編解碼的方式,內(nèi)存占用僅是cache的1/6,由于添加了編解碼,速度比cache慢點,但從數(shù)據(jù)比較來看,相差無幾。這樣既能節(jié)省內(nèi)存又能加快訓練速度。節(jié)省了我們訓練過程的極力值和加快實驗的步伐。
總結
到此這篇關于YOLOV5超參數(shù)介紹以及優(yōu)化策略的文章就介紹到這了,更多相關YOLOV5超參數(shù)及優(yōu)化內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
pytorch使用tensorboardX進行l(wèi)oss可視化實例
今天小編就為大家分享一篇pytorch使用tensorboardX進行l(wèi)oss可視化實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-02-02
Python3實現(xiàn)取圖片中特定的像素替換指定的顏色示例
這篇文章主要介紹了Python3實現(xiàn)取圖片中特定的像素替換指定的顏色,涉及Python3針對圖片文件的讀取、轉換、生成等相關操作技巧,需要的朋友可以參考下2019-01-01
pytorch使用nn.Moudle實現(xiàn)邏輯回歸
這篇文章主要為大家詳細介紹了pytorch使用nn.Moudle實現(xiàn)邏輯回歸,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2022-07-07
Python接口自動化淺析如何處理動態(tài)數(shù)據(jù)
本文是python接口自動化系列文章,主要介紹了接口自動化過程中,動態(tài)數(shù)據(jù)如何生成、動態(tài)數(shù)據(jù)與數(shù)據(jù)庫數(shù)據(jù)進行對比并替換,有需要的朋友可以參考下2021-08-08

