使用python-cv2實現(xiàn)Harr+Adaboost人臉識別的示例
Haar特征
哈爾特征使用檢測窗口中指定位置的相鄰矩形,計算每一個矩形的像素和并取其差值。然后用這些差值來對圖像的子區(qū)域進行分類。
haar特征模板有以下幾種:
以第一個haar特征模板為例
計算方式
1.特征 = 白色 - 黑色(用白色區(qū)域的像素之和減去黑色區(qū)域的象征之和)
2.特征 = 整個區(qū)域 * 權(quán)重 + 黑色 * 權(quán)重
使用haar模板處理圖像
從圖像的起點開始,利用haar模板從左往右遍歷,從上往下遍歷,并設置步長,同時考慮圖像大小和模板大小的信息
假如我們現(xiàn)在有一個 1080 * 720
大小的圖像,10*10
的haar模板,并且步長為2,那么我我們所需要的的計算量為: (1080 / 2 * 720 / 2) * 100 * 模板數(shù)量 * 縮放 約等于50-100億,計算量太大。
積分圖
使用積分圖可大量減少運算時間,實際上就是運用了前綴和的原理
Adaboost分類器
Adaboost是一種迭代算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構(gòu)成一個更強的最終分類器(強分類器)。
算法流程
該算法其實是一個簡單的弱分類算法提升過程,這個過程通過不斷的訓練,可以提高對數(shù)據(jù)的分類能力。整個過程如下所示:
1. 先通過對N個訓練樣本的學習得到第一個弱分類器;
2. 將分錯的樣本和其他的新數(shù)據(jù)一起構(gòu)成一個新的N個的訓練樣本,通過對這個樣本的學習得到第二個弱分類器 ;
3. 將1和2都分錯了的樣本加上其他的新樣本構(gòu)成另一個新的N個的訓練樣本,通過對這個樣本的學習得到第三個弱分類器;
4. 最終經(jīng)過提升的強分類器。即某個數(shù)據(jù)被分為哪一類要由各分類器權(quán)值決定。
我們需要從官網(wǎng)下載倆個Adaboost分類器文件,分別是人臉和眼睛的分類器:
下載地址:https://github.com/opencv/opencv/tree/master/data/haarcascades
代碼實現(xiàn)
實現(xiàn)人臉識別的基本步驟:
1.加載文件和圖片
2.進行灰度處理
3.得到haar特征
4.檢測人臉
5.進行標記
我們使用cv2.CascadeClassifier()
來加載我們下載好的分類器。
然后我們使用detectMultiScale()
方法來得到識別結(jié)果
import cv2 import numpy as np import matplotlib.pyplot as plt # 1.加載文件和圖片 2.進行灰度處理 3.得到haar特征 4.檢測人臉 5.標記 face_xml = cv2.CascadeClassifier('haarcascade_frontalface_default.xml') eye_xml = cv2.CascadeClassifier('haarcascade_eye.xml') img = cv2.imread('img.png') cv2.imshow('img', img) gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 1.灰色圖像 2.縮放系數(shù) 3.目標大小 faces = face_xml.detectMultiScale(gray, 1.3, 5) print('face = ',len(faces)) print(faces) #繪制人臉,為人臉畫方框 for (x,y,w,h) in faces: cv2.rectangle(img, (x,y), (x + w, y + h), (255,0,0), 2) roi_face = gray[y:y+h,x:x+w] roi_color = img[y:y+h,x:x+w] eyes = eye_xml.detectMultiScale(roi_face) print('eyes = ',len(eyes)) for (ex,ey,ew,eh) in eyes: cv2.rectangle(roi_color, (ex,ey),(ex + ew, ey + eh), (0,255,0), 2) cv2.imshow('dat', img) cv2.waitKey(0)
face = 1 [[133 82 94 94]] eyes = 2
到此這篇關(guān)于使用python-cv2實現(xiàn)Harr+Adaboost人臉識別的示例的文章就介紹到這了,更多相關(guān)python cv2 人臉識別內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
編寫Python爬蟲抓取豆瓣電影TOP100及用戶頭像的方法
這篇文章主要介紹了編寫Python爬蟲抓取豆瓣電影TOP100及用戶頭像的方法,用到了Python的urllib和urllib2模塊,需要的朋友可以參考下2016-01-01