淺談opencv自動光學(xué)檢測、目標(biāo)分割和檢測(連通區(qū)域和findContours)
步驟如下:
1.圖片灰化;
2.中值濾波 去噪
3.求圖片的光影(自動光學(xué)檢測)
4.除法去光影
5.閾值操作
6.實現(xiàn)了三種目標(biāo)檢測方法
主要分兩種連通區(qū)域和findContours
過程遇到了錯誤主要是圖片忘了灰化處理,隨機(jī)顏色的問題。下面代碼都已經(jīng)進(jìn)行了解決
這是findContours的效果
下面是連通區(qū)域的結(jié)果
#include <opencv2\core\utility.hpp> #include <opencv2\imgproc.hpp> #include <opencv2\highgui.hpp> #include<opencv2\opencv.hpp> #include <opencv2\core\core.hpp> #include <opencv2\core\matx.hpp> #include<string> #include <iostream> #include <limits> using namespace std; using namespace cv; Mat img = imread("C:\\Users\\hasee\\Desktop\\luosi.jpg",0); Mat removeLight(Mat imge, Mat pattern, int method); Mat calculateLightPattern(Mat img); static Scalar randomColor(RNG& rng); void ConnectedComponents(Mat img); void ConnectedComponetsStats(Mat img); void FindContoursBasic(Mat img); void main() { Mat img_noise; medianBlur(img,img_noise,3); Mat pattern = calculateLightPattern(img_noise); Mat re_light = removeLight(img_noise, pattern, 1); Mat img_thr; threshold(re_light,img_thr,30,255,THRESH_BINARY); //ConnectedComponents(img_thr); ConnectedComponetsStats(img_thr); //FindContoursBasic(img_thr); waitKey(0); } Mat removeLight(Mat imge, Mat pattern, int method) { Mat aux; if (method == 1) { Mat img32, pattern32; imge.convertTo(img32, CV_32F); pattern.convertTo(pattern32, CV_32F); aux = 1 - (img32 / pattern32); aux = aux * 255; aux.convertTo(aux, CV_8U); } else { aux = pattern - imge; } return aux; } Mat calculateLightPattern(Mat img) { Mat pattern; blur(img, pattern, Size(img.cols / 3, img.cols / 3)); return pattern; } static Scalar randomColor(RNG& rng) { int icolor = (unsigned)rng; return Scalar(icolor & 255, (icolor >> 8) & 255, (icolor >> 16) & 255); } void ConnectedComponents(Mat img) { Mat lables; int num_objects = connectedComponents(img, lables); if (num_objects < 2) { cout << "未檢測到目標(biāo)" << endl; return; } else { cout << "檢測到的目標(biāo)數(shù)量: " << num_objects - 1 << endl; } Mat output = Mat::zeros(img.rows,img.cols,CV_8UC3); RNG rng(0xFFFFFFFF); for (int i = 1; i < num_objects;i++) { Mat mask = lables == i; output.setTo(randomColor(rng),mask); } imshow("Result",output); } void ConnectedComponetsStats(Mat img) { Mat labels, stats, centroids; int num_objects = connectedComponentsWithStats(img,labels,stats,centroids); if (num_objects<2) { cout << "未檢測到目標(biāo)" << endl; return; } else { cout << "檢測到的目標(biāo)數(shù)量: " << num_objects - 1 << endl; } Mat output = Mat::zeros(img.rows, img.cols, CV_8UC3); RNG rng(0xFFFFFFFF); for (int i = 1; i < num_objects; i++) { Mat mask = labels == i; output.setTo(randomColor(rng), mask); stringstream ss; ss << "area: " << stats.at<int>(i,CC_STAT_AREA); putText(output,ss.str(), centroids.at<Point2d>(i),FONT_HERSHEY_SIMPLEX,0.4,Scalar(255,255,255)); } imshow("Result", output); } void FindContoursBasic(Mat img) { vector<vector<Point>> contours; findContours(img, contours, RETR_EXTERNAL, CHAIN_APPROX_SIMPLE); Mat output = Mat::zeros(img.rows, img.cols, CV_8UC3); if (contours.size()==0) { cout << "未檢測到對象" << endl; return; }else{ cout << "檢測到對象數(shù)量: " << contours.size() << endl; } RNG rng(0xFFFFFFFF); for (int i = 0; i < contours.size(); i++) drawContours(output,contours,i,randomColor(rng)); imshow("Result", output); }
補(bǔ)充知識:SURF特征點(diǎn)檢測與匹配之誤匹配點(diǎn)刪除
SURF特征點(diǎn)檢測與匹配之誤匹配點(diǎn)刪除
SURF(SpeededUp Robust Feature)是加速版的具有魯棒性的算法,是SIFT算法的加速版。
但是SURF特征匹配之后有大量的誤匹配點(diǎn),需要對這些誤匹配點(diǎn)進(jìn)行刪除。
這里不從理論上講解SURF原理等,直接說用法。
特征匹配的步驟分為三步:
1、找出特征點(diǎn)
2、描述特征點(diǎn)
3、特征點(diǎn)匹配
具體基本代碼見最后。具體的可以看毛星云的書籍,但是個人認(rèn)為其編程風(fēng)格不嚴(yán)謹(jǐn),自己有做改動。
但是匹配出來的結(jié)果如下:
有很多的誤匹配點(diǎn),如何對誤匹配點(diǎn)進(jìn)行刪除呢。
雙向匹配加距離約束。
實驗結(jié)果如下:效果還是非常好的。
#include "stdafx.h" #include <opencv2\opencv.hpp> #include <opencv2\nonfree\nonfree.hpp> #include <opencv2\legacy\legacy.hpp> #include <iostream> int _tmain(int argc, _TCHAR* argv[]) { //讀取圖片 cv::Mat srcImg1 = cv::imread("1.jpg", 1); cv::Mat srcImg2 = cv::imread("2.jpg", 1); if (srcImg1.empty() || srcImg2.empty()) { std::cout << "Read Image ERROR!" << std::endl; return 0; } //SURF算子特征點(diǎn)檢測 int minHessian = 700; cv::SurfFeatureDetector detector(minHessian);//定義特征點(diǎn)類對象 std::vector<cv::KeyPoint> keyPoint1, keyPoint2;//存放動態(tài)數(shù)組,也就是特征點(diǎn) detector.detect(srcImg1, keyPoint1); detector.detect(srcImg2, keyPoint2); //特征向量 cv::SurfDescriptorExtractor extrator;//定義描述類對象 cv::Mat descriptor1, descriptor2;//描述對象 extrator.compute(srcImg1, keyPoint1, descriptor1); extrator.compute(srcImg2, keyPoint2, descriptor2); //BruteForce暴力匹配 cv::BruteForceMatcher <cv::L2<float>>matcher;//匹配器 std::vector <cv::DMatch> matches; matcher12.match(descriptor1, descriptor2, matches); //繪制關(guān)鍵點(diǎn) cv::Mat imgMatch; cv::drawMatches(srcImg1, keyPoint1, srcImg2, keyPoint2, matches, imgMatch); cv::namedWindow("匹配圖", CV_WINDOW_AUTOSIZE); cv::imshow("匹配圖", imgMatch); cv::imwrite("匹配圖.jpg", imgMatch); cv::waitKey(10); return 0; }
以上這篇淺談opencv自動光學(xué)檢測、目標(biāo)分割和檢測(連通區(qū)域和findContours)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
詳解Pytorch如何利用yaml定義卷積網(wǎng)絡(luò)
大多數(shù)卷積神經(jīng)網(wǎng)絡(luò)都是直接通過寫一個Model類來定義的,這樣寫的代碼其實是比較好懂,也很方便。但是本文將介紹另一個方法:利用yaml定義卷積網(wǎng)絡(luò),感興趣的可以了解一下2022-10-10python3+PyQt5實現(xiàn)使用剪貼板做復(fù)制與粘帖示例
本篇文章主要介紹了python3+PyQt5實現(xiàn)使用剪貼板做復(fù)制與粘帖示例,具有一定的參考價值,有興趣的可以了解一下。2017-01-01Pycharm在創(chuàng)建py文件時,自動添加文件頭注釋的實例
今天小編就為大家分享一篇Pycharm在創(chuàng)建py文件時,自動添加文件頭注釋的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-05-05使用Python給頭像加上圣誕帽或圣誕老人小圖標(biāo)附源碼
圣誕的到來給大家?guī)硐矏偅裉焓フQ老人給大家送一頂圣誕帽,今天小編通過代碼給大家分享使用Python給頭像加上圣誕帽或圣誕老人小圖標(biāo)附源碼,需要的朋友一起看看吧2019-12-12Python實例方法、類方法、靜態(tài)方法的區(qū)別與作用詳解
這篇文章主要介紹了Python實例方法、類方法、靜態(tài)方法的區(qū)別與作用,結(jié)合實例形式分析了Python面向?qū)ο蟪绦蛟O(shè)計中實例方法、類方法、靜態(tài)方法的概念、原理、用法及相關(guān)操作技巧,需要的朋友可以參考下2019-03-03Python 使用@property對屬性進(jìn)行數(shù)據(jù)規(guī)范性校驗的實現(xiàn)
本文主要介紹了Python 使用@property對屬性進(jìn)行數(shù)據(jù)規(guī)范性校驗的實現(xiàn),文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2021-10-10python使用opencv在Windows下調(diào)用攝像頭實現(xiàn)解析
這篇文章主要介紹了python使用opencv在Windows下調(diào)用攝像頭實現(xiàn)解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2019-11-116行Python代碼實現(xiàn)進(jìn)度條效果(Progress、tqdm、alive-progress
這篇文章主要介紹了6行Python代碼實現(xiàn)進(jìn)度條效果(Progress、tqdm、alive-progress和PySimpleGUI庫),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-01-01