YOLOv5目標(biāo)檢測(cè)之a(chǎn)nchor設(shè)定
前言
yolo算法作為one-stage領(lǐng)域的佼佼者,采用anchor-based的方法進(jìn)行目標(biāo)檢測(cè),使用不同尺度的anchor直接回歸目標(biāo)框并一次性輸出目標(biāo)框的位置和類別置信度。
為什么使用anchor進(jìn)行檢測(cè)?
最初的YOLOv1的初始訓(xùn)練過(guò)程很不穩(wěn)定,在YOLOv2的設(shè)計(jì)過(guò)程中,作者觀察了大量圖片的ground truth,發(fā)現(xiàn)相同類別的目標(biāo)實(shí)例具有相似的gt長(zhǎng)寬比:比如車,gt都是矮胖的長(zhǎng)方形;比如行人,gt都是瘦高的長(zhǎng)方形。所以作者受此啟發(fā),從數(shù)據(jù)集中預(yù)先準(zhǔn)備幾個(gè)幾率比較大的bounding box,再以它們?yōu)榛鶞?zhǔn)進(jìn)行預(yù)測(cè)。
anchor的檢測(cè)過(guò)程
首先,yolov5中使用的coco數(shù)據(jù)集輸入圖片的尺寸為640x640,但是訓(xùn)練過(guò)程的輸入尺寸并不唯一,因?yàn)関5可以采用masaic增強(qiáng)技術(shù)把4張圖片的部分組成了一張尺寸一定的輸入圖片。但是如果需要使用預(yù)訓(xùn)練權(quán)重,最好將輸入圖片尺寸調(diào)整到與作者相同的尺寸,而且輸入圖片尺寸必須是32的倍數(shù),這與下面anchor檢測(cè)的階段有關(guān)。

上圖是我自己繪制的v5 v6.0的網(wǎng)絡(luò)結(jié)構(gòu)圖。當(dāng)我們的輸入尺寸為640*640時(shí),會(huì)得到3個(gè)不同尺度的輸出:80x80(640/8)、40x40(640/16)、20x20(640/32),即上圖中的CSP2_3模塊的輸出。
anchors: - [10,13, 16,30, 33,23] # P3/8 - [30,61, 62,45, 59,119] # P4/16 - [116,90, 156,198, 373,326] # P5/32
其中,80x80代表淺層的特征圖(P3),包含較多的低層級(jí)信息,適合用于檢測(cè)小目標(biāo),所以這一特征圖所用的anchor尺度較??;同理,20x20代表深層的特征圖(P5),包含更多高層級(jí)的信息,如輪廓、結(jié)構(gòu)等信息,適合用于大目標(biāo)的檢測(cè),所以這一特征圖所用的anchor尺度較大。另外的40x40特征圖(P4)上就用介于這兩個(gè)尺度之間的anchor用來(lái)檢測(cè)中等大小的目標(biāo)。yolov5之所以能高效快速地檢測(cè)跨尺度目標(biāo),這種對(duì)不同特征圖使用不同尺度的anchor的思想功不可沒(méi)。
以上就是yolov5中的anchors的具體解釋。
anchor產(chǎn)生過(guò)程
對(duì)于大部分圖片而言,由于其尺寸與我們預(yù)設(shè)的輸入尺寸不符,所以在輸入階段就做了resize,導(dǎo)致預(yù)先標(biāo)注的bounding box大小也發(fā)生變化。而anchor是根據(jù)我們輸入網(wǎng)絡(luò)中的bounding box大小計(jì)算得到的,所以在這個(gè)resize過(guò)程中就存在anchor重新聚類的過(guò)程。在yolov5/utils/autoanchor.py文件下,有一個(gè)函數(shù)kmeans_anchor,通過(guò)kmeans的方法計(jì)算得到anchor。具體如下:
def kmean_anchors(dataset='./data/coco128.yaml', n=9, img_size=640, thr=4.0, gen=1000, verbose=True):
""" Creates kmeans-evolved anchors from training dataset
Arguments:
dataset: path to data.yaml, or a loaded dataset
n: number of anchors
img_size: image size used for training
thr: anchor-label wh ratio threshold hyperparameter hyp['anchor_t'] used for training, default=4.0
gen: generations to evolve anchors using genetic algorithm
verbose: print all results
Return:
k: kmeans evolved anchors
Usage:
from utils.autoanchor import *; _ = kmean_anchors()
"""
from scipy.cluster.vq import kmeans
thr = 1. / thr
prefix = colorstr('autoanchor: ')
def metric(k, wh): # compute metrics
r = wh[:, None] / k[None]
x = torch.min(r, 1. / r).min(2)[0] # ratio metric
# x = wh_iou(wh, torch.tensor(k)) # iou metric
return x, x.max(1)[0] # x, best_x
def anchor_fitness(k): # mutation fitness
_, best = metric(torch.tensor(k, dtype=torch.float32), wh)
return (best * (best > thr).float()).mean() # fitness
def print_results(k):
k = k[np.argsort(k.prod(1))] # sort small to large
x, best = metric(k, wh0)
bpr, aat = (best > thr).float().mean(), (x > thr).float().mean() * n # best possible recall, anch > thr
print(f'{prefix}thr={thr:.2f}: {bpr:.4f} best possible recall, {aat:.2f} anchors past thr')
print(f'{prefix}n={n}, img_size={img_size}, metric_all={x.mean():.3f}/{best.mean():.3f}-mean/best, '
f'past_thr={x[x > thr].mean():.3f}-mean: ', end='')
for i, x in enumerate(k):
print('%i,%i' % (round(x[0]), round(x[1])), end=', ' if i < len(k) - 1 else '\n') # use in *.cfg
return k
if isinstance(dataset, str): # *.yaml file
with open(dataset, errors='ignore') as f:
data_dict = yaml.safe_load(f) # model dict
from datasets import LoadImagesAndLabels
dataset = LoadImagesAndLabels(data_dict['train'], augment=True, rect=True)
# Get label wh
shapes = img_size * dataset.shapes / dataset.shapes.max(1, keepdims=True)
wh0 = np.concatenate([l[:, 3:5] * s for s, l in zip(shapes, dataset.labels)]) # wh
# Filter
i = (wh0 < 3.0).any(1).sum()
if i:
print(f'{prefix}WARNING: Extremely small objects found. {i} of {len(wh0)} labels are < 3 pixels in size.')
wh = wh0[(wh0 >= 2.0).any(1)] # filter > 2 pixels
# wh = wh * (np.random.rand(wh.shape[0], 1) * 0.9 + 0.1) # multiply by random scale 0-1
# Kmeans calculation
print(f'{prefix}Running kmeans for {n} anchors on {len(wh)} points...')
s = wh.std(0) # sigmas for whitening
k, dist = kmeans(wh / s, n, iter=30) # points, mean distance
assert len(k) == n, f'{prefix}ERROR: scipy.cluster.vq.kmeans requested {n} points but returned only {len(k)}'
k *= s
wh = torch.tensor(wh, dtype=torch.float32) # filtered
wh0 = torch.tensor(wh0, dtype=torch.float32) # unfiltered
k = print_results(k)
# Plot
# k, d = [None] * 20, [None] * 20
# for i in tqdm(range(1, 21)):
# k[i-1], d[i-1] = kmeans(wh / s, i) # points, mean distance
# fig, ax = plt.subplots(1, 2, figsize=(14, 7), tight_layout=True)
# ax = ax.ravel()
# ax[0].plot(np.arange(1, 21), np.array(d) ** 2, marker='.')
# fig, ax = plt.subplots(1, 2, figsize=(14, 7)) # plot wh
# ax[0].hist(wh[wh[:, 0]<100, 0],400)
# ax[1].hist(wh[wh[:, 1]<100, 1],400)
# fig.savefig('wh.png', dpi=200)
# Evolve
npr = np.random
f, sh, mp, s = anchor_fitness(k), k.shape, 0.9, 0.1 # fitness, generations, mutation prob, sigma
pbar = tqdm(range(gen), desc=f'{prefix}Evolving anchors with Genetic Algorithm:') # progress bar
for _ in pbar:
v = np.ones(sh)
while (v == 1).all(): # mutate until a change occurs (prevent duplicates)
v = ((npr.random(sh) < mp) * random.random() * npr.randn(*sh) * s + 1).clip(0.3, 3.0)
kg = (k.copy() * v).clip(min=2.0)
fg = anchor_fitness(kg)
if fg > f:
f, k = fg, kg.copy()
pbar.desc = f'{prefix}Evolving anchors with Genetic Algorithm: fitness = {f:.4f}'
if verbose:
print_results(k)
return print_results(k)
代碼的注釋部分其實(shí)已經(jīng)對(duì)參數(shù)及調(diào)用方法解釋的很清楚了,這里我只簡(jiǎn)單說(shuō)一下:
Arguments:
dataset: 數(shù)據(jù)的yaml路徑
n: 類簇的個(gè)數(shù)
img_size: 訓(xùn)練過(guò)程中的圖片尺寸(32的倍數(shù))
thr: anchor的長(zhǎng)寬比閾值,將長(zhǎng)寬比限制在此閾值之內(nèi)
gen: k-means算法最大迭代次數(shù)(不理解的可以去看k-means算法)
verbose: 打印參數(shù)
Usage:
from utils.autoanchor import *; _ = kmean_anchors()
總結(jié)
到此這篇關(guān)于YOLOv5目標(biāo)檢測(cè)之a(chǎn)nchor設(shè)定的文章就介紹到這了,更多相關(guān)YOLOv5 anchor設(shè)定內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- 教你用YOLOv5實(shí)現(xiàn)多路攝像頭實(shí)時(shí)目標(biāo)檢測(cè)功能
- 如何使用yolov5輸出檢測(cè)到的目標(biāo)坐標(biāo)信息
- Pytorch搭建YoloV5目標(biāo)檢測(cè)平臺(tái)實(shí)現(xiàn)過(guò)程
- YOLOv5改進(jìn)系列之增加小目標(biāo)檢測(cè)層
- 手把手教你YOLOv5如何進(jìn)行區(qū)域目標(biāo)檢測(cè)
- YOLOv5小目標(biāo)切圖檢測(cè)的思路與方法
- YOLOv5在圖片上顯示統(tǒng)計(jì)出單一檢測(cè)目標(biāo)的個(gè)數(shù)實(shí)例代碼
相關(guān)文章
Django實(shí)現(xiàn)將views.py中的數(shù)據(jù)傳遞到前端html頁(yè)面,并展示
這篇文章主要介紹了Django實(shí)現(xiàn)將views.py中的數(shù)據(jù)傳遞到前端html頁(yè)面并展示,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-03-03
Python最火、R極具潛力 2017機(jī)器學(xué)習(xí)調(diào)查報(bào)告
Python最火,R極具潛力,分享2017機(jī)器學(xué)習(xí)調(diào)查報(bào)告,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2017-12-12
Python使用低通濾波器模糊圖像功能實(shí)現(xiàn)
這篇文章主要介紹了Python使用低通濾波器模糊圖像,我們介紹了多種不同類型的濾波器核與卷積操作,使用 scipy.ndimage 模塊中的濾波器模糊圖像,利用 scipy.fftpack 模塊的 fft2() 函數(shù)實(shí)現(xiàn)高斯模糊,介紹了scipy.signal模塊的彩色圖像頻域卷積,需要的朋友可以參考下2023-03-03
python實(shí)現(xiàn)超市進(jìn)銷存管理系統(tǒng)
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)超市進(jìn)銷存管理系統(tǒng),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-06-06
Python 操作SQLite數(shù)據(jù)庫(kù)詳情
這篇文章主要介紹了Python 操作SQLite數(shù)據(jù)庫(kù),SQLite,是一款輕型的數(shù)據(jù)庫(kù),是遵守ACID的關(guān)系型數(shù)據(jù)庫(kù)管理系統(tǒng),它包含在一個(gè)相對(duì)小的C庫(kù)中,下面來(lái)看看詳細(xì)內(nèi)容,需要的朋友可以參考一下2021-11-11
詳解通過(guò)API管理或定制開(kāi)發(fā)ECS實(shí)例
在本文里我們給大家整理了關(guān)于通過(guò)API管理或定制開(kāi)發(fā)ECS的相關(guān)實(shí)例內(nèi)容,有需要的朋友們參考學(xué)習(xí)下。2018-09-09

