Python使用背景差分器實(shí)現(xiàn)運(yùn)動(dòng)物體檢測(cè)
前言
目前,許多運(yùn)動(dòng)檢測(cè)技術(shù)都是基于簡(jiǎn)單的背景差分概念的,即假設(shè)攝像頭(視頻)的曝光和場(chǎng)景中的光照條件是穩(wěn)定的,當(dāng)攝像頭捕捉到新的幀時(shí),我們可以從參考圖像中減去該幀,并取這個(gè)差的絕對(duì)值,以獲得幀中每個(gè)像素位置的運(yùn)動(dòng)測(cè)量值。如果幀的任何區(qū)域與參考圖像有很大的不同,我們就認(rèn)為給定區(qū)域中是一個(gè)運(yùn)動(dòng)物體。
本文主要簡(jiǎn)單介紹基本背景差分器,詳細(xì)介紹MOG背景差分器,KNN背景差分器。
一、基本背景差分器
首先,基本背景差分器可以很好地實(shí)現(xiàn)運(yùn)動(dòng)物體的檢測(cè),代碼實(shí)現(xiàn)參考此鏈接
其特點(diǎn)是:此腳本不會(huì)動(dòng)態(tài)更新背景圖像,即當(dāng)一個(gè)運(yùn)動(dòng)的物體靜止后,此腳本仍然會(huì)標(biāo)記此物體,除非此物體消失在窗口中,甚至當(dāng)攝像頭運(yùn)動(dòng)或者光線(xiàn)變化時(shí),此腳本會(huì)直接標(biāo)記整個(gè)窗口直到程序結(jié)束。
如果我們希望腳本能夠動(dòng)態(tài)的更新背景模型,即當(dāng)運(yùn)動(dòng)物體靜止后,靜止物體會(huì)被納入背景,標(biāo)記會(huì)逐漸消失,這時(shí),我們就可以采用更靈活、更智能的背景差分器(如MOG背景差分器、KNN背景差分器)。
二、MOG背景差分器
OpenCV提供了一個(gè)名為 cv2.BackgroundSubtractor 的類(lèi),它有實(shí)現(xiàn)各種背景差分算法的子類(lèi)。
對(duì)于MOG背景差分器,OpenCV有兩種實(shí)現(xiàn),分別命名為:cv2.BackgroundSubtractorMOG 和 cv2.BackgroundSubtractorMOG2,后者是最新改進(jìn)的實(shí)現(xiàn),增加了對(duì)陰影檢測(cè)的支持,我們將使用它。
流程
1.導(dǎo)入OpenCV,初始化MOG背景差分器,定義erode(腐蝕)、dilate(膨脹)運(yùn)算的核大小
import cv2 bg_subtractor = cv2.createBackgroundSubtractorMOG2(detectShadows=True) erode_kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (3, 3)) dilate_kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (7, 7))
初始化函數(shù)中接收一個(gè)參數(shù)detectShadows,將其設(shè)置為T(mén)rue,就會(huì)標(biāo)記出陰影區(qū)域,而不會(huì)標(biāo)記為前景的一部分。
使用腐蝕與膨脹的形態(tài)學(xué)操作是為了抑制一些細(xì)微的振動(dòng)頻率。
2.捕捉攝像頭幀,并使用MOG差分器獲得背景掩膜
cap = cv2.VideoCapture(0) success, frame = cap.read() while success: fg_mask = bg_subtractor.apply(frame)
當(dāng)我們把每一幀傳遞給背景差分器的 apply 方法時(shí),差分器就會(huì)更新它的內(nèi)部背景模型,然后返回一個(gè)掩膜。
其中,前景部分的掩膜是白色(255),陰影部分的掩膜是灰色(127),背景部分的掩膜是黑色(0)
3.然后對(duì)掩膜應(yīng)用閾值來(lái)獲得純黑白圖像,并通過(guò)形態(tài)學(xué)運(yùn)算對(duì)閾值化圖像進(jìn)行平滑處理。
_, thresh = cv2.threshold(fg_mask, 244, 255, cv2.THRESH_BINARY) cv2.erode(thresh, erode_kernel, thresh, iterations=2) cv2.dilate(thresh, dilate_kernel, thresh, iterations=2)
(本示例中,我們開(kāi)啟了陰影檢測(cè),但我們?nèi)匀幌氚殃幱罢J(rèn)為是背景,所以對(duì)掩膜應(yīng)用一個(gè)接近白色(244)的閾值)
4.現(xiàn)在,如果我們直接查看閾值化后的圖像,會(huì)發(fā)現(xiàn)運(yùn)動(dòng)物體呈現(xiàn)白色斑點(diǎn),我們想找到白色斑點(diǎn)的輪廓,并在其周?chē)L制輪廓。其中,我們將應(yīng)用一個(gè)基于輪廓面積的閾值,如果輪廓太小,就認(rèn)為它不是真正的運(yùn)動(dòng)物體(或者不使用此閾值),檢測(cè)輪廓與繪制邊框的代碼:
contours, hier = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) for c in contours: if cv2.contourArea(c) > 1000: x, y, w, h = cv2.boundingRect(c) cv2.rectangle(frame, (x, y), (x+w, y+h), (255, 255, 0), 2)
5.顯示掩膜圖像/閾值化圖像/檢測(cè)結(jié)果圖像,繼續(xù)讀取幀,直到按下ESC退出。
cv2.imshow('mog', fg_mask) cv2.imshow('thresh', thresh) cv2.imshow('detection', frame) k = cv2.waitKey(30) if k == 27: # Escape break success, frame = cap.read()
代碼編寫(xiě)
import cv2 OPENCV_MAJOR_VERSION = int(cv2.__version__.split('.')[0]) bg_subtractor = cv2.createBackgroundSubtractorMOG2(detectShadows=True) erode_kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (3, 3)) dilate_kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (7, 7)) cap = cv2.VideoCapture(0) success, frame = cap.read() while success: fg_mask = bg_subtractor.apply(frame) _, thresh = cv2.threshold(fg_mask, 244, 255, cv2.THRESH_BINARY) cv2.erode(thresh, erode_kernel, thresh, iterations=2) cv2.dilate(thresh, dilate_kernel, thresh, iterations=2) if OPENCV_MAJOR_VERSION >= 4: # OpenCV 4 or a later version is being used. contours, hier = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) else: # OpenCV 3 or an earlier version is being used. # cv2.findContours has an extra return value. # The extra return value is the thresholded image, which is # unchanged, so we can ignore it. _, contours, hier = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) for c in contours: if cv2.contourArea(c) > 1000: x, y, w, h = cv2.boundingRect(c) cv2.rectangle(frame, (x, y), (x+w, y+h), (255, 255, 0), 2) cv2.imshow('mog', fg_mask) cv2.imshow('thresh', thresh) cv2.imshow('detection', frame) k = cv2.waitKey(30) if k == 27: # Escape break success, frame = cap.read() cap.release() cv2.destroyAllWindows()
注意:當(dāng)我們啟用陰影檢測(cè)時(shí),我們可以通過(guò)一個(gè)閾值來(lái)移除掩膜上的陰影和反射部分,從而使得檢測(cè)能夠準(zhǔn)確地框選到實(shí)際運(yùn)動(dòng)物體(本示例)。如果我們禁用陰影檢測(cè),那么倒影或者反射部分可能都會(huì)被框選,從而影響檢測(cè)真正運(yùn)動(dòng)物體的準(zhǔn)確性。
三、KNN背景差分器
通過(guò)修改MOG背景差分腳本的很一小部分代碼,即可使用不同的背景差分算法以及不同的形態(tài)學(xué)參數(shù)。
1.用cv2.createBackgroundSubtractorKNN替換cv2.createBackgroundSubtractorMOG2,就可以使用基于KNN聚類(lèi)(而不是MOG聚類(lèi))的背景差分器:
bg_subtractor = cv2.createBackgroundSubtractorKNN(detectShadows=True)
(注意:KNN背景差分器仍然支持detectShadows參數(shù)與apply方法)
修改完成之后,就可以使用KNN背景差分器了,可見(jiàn)修改量非常少。
2.當(dāng)然,此處我們可以使用稍微好點(diǎn)的適應(yīng)于水平細(xì)長(zhǎng)物體的形態(tài)學(xué)核(本例中檢測(cè)的是運(yùn)動(dòng)的汽車(chē),視頻地址(GitHub,可下載):traffic.flv),并使用此視頻作為輸入
erode_kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (7, 5)) dilate_kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (17, 11)) cap = cv2.VideoCapture('E:/traffic.flv')
3.最后一個(gè)小細(xì)節(jié),我們將掩膜窗口標(biāo)題從“mog”更改為“knn”
cv2.imshow('knn', fg_mask)
到此這篇關(guān)于Python使用背景差分器實(shí)現(xiàn)運(yùn)動(dòng)物體檢測(cè)的文章就介紹到這了,更多相關(guān)Python運(yùn)動(dòng)物體檢測(cè)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Django初步使用Celery處理耗時(shí)任務(wù)和定時(shí)任務(wù)問(wèn)題
這篇文章主要介紹了Django初步使用Celery處理耗時(shí)任務(wù)和定時(shí)任務(wù)問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-12-12python+html文字點(diǎn)選驗(yàn)證碼加固安全防線(xiàn)
這篇文章主要為大家介紹了python文字點(diǎn)選驗(yàn)證碼加固安全防線(xiàn)實(shí)現(xiàn)示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-09-09Python高階函數(shù)與裝飾器函數(shù)的深入講解
這篇文章主要給大家介紹了關(guān)于Python高階函數(shù)與裝飾器函數(shù)的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-11-11

pygame學(xué)習(xí)筆記(2):畫(huà)點(diǎn)的三種方法和動(dòng)畫(huà)實(shí)例

完美解決Django2.0中models下的ForeignKey()問(wèn)題