JavaCV攝像頭實(shí)戰(zhàn)之實(shí)現(xiàn)口罩檢測(cè)
本篇概覽
本文是《JavaCV的攝像頭實(shí)戰(zhàn)》系列的第十四篇,如標(biāo)題所說(shuō),今天的功能是檢測(cè)攝像頭內(nèi)的人是否帶了口罩,把檢測(cè)結(jié)果實(shí)時(shí)標(biāo)注在預(yù)覽窗口,如下圖所示:
整個(gè)處理流程如下,實(shí)現(xiàn)口罩檢測(cè)的關(guān)鍵是將圖片提交到百度AI開(kāi)放平臺(tái),然后根據(jù)平臺(tái)返回的結(jié)果在本地預(yù)覽窗口標(biāo)識(shí)出人臉位置,以及此人是否帶了口罩:
問(wèn)題提前告知
依賴云平臺(tái)處理業(yè)務(wù)的一個(gè)典型問(wèn)題,就是處理速度受限
首先,如果您在百度AI開(kāi)放平臺(tái)注冊(cè)的賬號(hào)是個(gè)人類型,那么免費(fèi)的接口調(diào)用會(huì)被限制到一秒鐘兩次,如果是企業(yè)類型賬號(hào),該限制是十次
其次,經(jīng)過(guò)實(shí)測(cè),一次人臉檢測(cè)接口耗時(shí)300ms以上
最終,實(shí)際上一秒鐘只能處理兩幀,這樣的效果在預(yù)覽窗口展現(xiàn)出來(lái),就只能是幻燈片效果了(低于每秒十五幀就能感受到明顯的卡頓)
因此,本文只適合基本功能展示,無(wú)法作為實(shí)際場(chǎng)景的解決方案
關(guān)于百度AI開(kāi)放平臺(tái)
為了正常使用百度AI開(kāi)放平臺(tái)的服務(wù),您需要完成一些注冊(cè)和申請(qǐng)操作,詳情請(qǐng)參考《最簡(jiǎn)單的人臉檢測(cè)(免費(fèi)調(diào)用百度AI開(kāi)放平臺(tái)接口)》
現(xiàn)在,如果您完成了百度AI開(kāi)放平臺(tái)的注冊(cè)和申請(qǐng),那么,現(xiàn)在手里應(yīng)該有可用的access_token,那么現(xiàn)在可以開(kāi)始編碼了
編碼:添加依賴庫(kù)
本文繼續(xù)使用《JavaCV的攝像頭實(shí)戰(zhàn)之一:基礎(chǔ)》創(chuàng)建的simple-grab-push工程
首先是在pom.xml中增加okhttp和jackson依賴,分別用于網(wǎng)絡(luò)請(qǐng)求和JSON解析:
<dependency> <groupId>com.squareup.okhttp3</groupId> <artifactId>okhttp</artifactId> <version>3.10.0</version> </dependency> <dependency> <groupId>com.fasterxml.jackson.core</groupId> <artifactId>jackson-databind</artifactId> <version>2.11.0</version> </dependency>
編碼:封裝請(qǐng)求和響應(yīng)百度AI開(kāi)放平臺(tái)的代碼
接下來(lái)要開(kāi)發(fā)一個(gè)服務(wù)類,這個(gè)服務(wù)類封裝了所有和百度AI開(kāi)放平臺(tái)相關(guān)的代碼
首先,定義web請(qǐng)求的request對(duì)象FaceDetectRequest.java:
package com.bolingcavalry.grabpush.bean.request; import com.fasterxml.jackson.annotation.JsonProperty; import lombok.Data; /** * @author willzhao * @version 1.0 * @description 請(qǐng)求對(duì)象 * @date 2022/1/1 16:21 */ @Data public class FaceDetectRequest { // 圖片信息(總數(shù)據(jù)大小應(yīng)小于10M),圖片上傳方式根據(jù)image_type來(lái)判斷 String image; // 圖片類型 // BASE64:圖片的base64值,base64編碼后的圖片數(shù)據(jù),編碼后的圖片大小不超過(guò)2M; // URL:圖片的 URL地址( 可能由于網(wǎng)絡(luò)等原因?qū)е孪螺d圖片時(shí)間過(guò)長(zhǎng)); // FACE_TOKEN: 人臉圖片的唯一標(biāo)識(shí),調(diào)用人臉檢測(cè)接口時(shí),會(huì)為每個(gè)人臉圖片賦予一個(gè)唯一的FACE_TOKEN,同一張圖片多次檢測(cè)得到的FACE_TOKEN是同一個(gè)。 @JsonProperty("image_type") String imageType; // 包括age,expression,face_shape,gender,glasses,landmark,landmark150,quality,eye_status,emotion,face_type,mask,spoofing信息 //逗號(hào)分隔. 默認(rèn)只返回face_token、人臉框、概率和旋轉(zhuǎn)角度 @JsonProperty("face_field") String faceField; // 最多處理人臉的數(shù)目,默認(rèn)值為1,根據(jù)人臉檢測(cè)排序類型檢測(cè)圖片中排序第一的人臉(默認(rèn)為人臉面積最大的人臉),最大值120 @JsonProperty("max_face_num") int maxFaceNum; // 人臉的類型 // LIVE表示生活照:通常為手機(jī)、相機(jī)拍攝的人像圖片、或從網(wǎng)絡(luò)獲取的人像圖片等 // IDCARD表示身份證芯片照:二代身份證內(nèi)置芯片中的人像照片 // WATERMARK表示帶水印證件照:一般為帶水印的小圖,如公安網(wǎng)小圖 // CERT表示證件照片:如拍攝的身份證、工卡、護(hù)照、學(xué)生證等證件圖片 // 默認(rèn)LIVE @JsonProperty("face_type") String faceType; // 活體控制 檢測(cè)結(jié)果中不符合要求的人臉會(huì)被過(guò)濾 // NONE: 不進(jìn)行控制 // LOW:較低的活體要求(高通過(guò)率 低攻擊拒絕率) // NORMAL: 一般的活體要求(平衡的攻擊拒絕率, 通過(guò)率) // HIGH: 較高的活體要求(高攻擊拒絕率 低通過(guò)率) // 默認(rèn)NONE @JsonProperty("liveness_control") String livenessControl; // 人臉檢測(cè)排序類型 // 0:代表檢測(cè)出的人臉按照人臉面積從大到小排列 // 1:代表檢測(cè)出的人臉按照距離圖片中心從近到遠(yuǎn)排列 // 默認(rèn)為0 @JsonProperty("face_sort_type") int faceSortType; }
其次,定義web響應(yīng)對(duì)象FaceDetectResponse.java:
package com.bolingcavalry.grabpush.bean.response; import com.fasterxml.jackson.annotation.JsonProperty; import lombok.Data; import lombok.ToString; import java.io.Serializable; import java.util.List; @Data @ToString public class FaceDetectResponse implements Serializable { // 返回碼 @JsonProperty("error_code") String errorCode; // 描述信息 @JsonProperty("error_msg") String errorMsg; // 返回的具體內(nèi)容 Result result; @Data public static class Result { // 人臉數(shù)量 @JsonProperty("face_num") private int faceNum; // 每個(gè)人臉的信息 @JsonProperty("face_list") List<Face> faceList; /** * @author willzhao * @version 1.0 * @description 檢測(cè)出來(lái)的人臉對(duì)象 * @date 2022/1/1 16:03 */ @Data public static class Face { // 位置 Location location; // 是人臉的置信度 @JsonProperty("face_probability") double face_probability; // 口罩 Mask mask; /** * @author willzhao * @version 1.0 * @description 人臉在圖片中的位置 * @date 2022/1/1 16:04 */ @Data public static class Location { double left; double top; double width; double height; double rotation; } /** * @author willzhao * @version 1.0 * @description 口罩對(duì)象 * @date 2022/1/1 16:11 */ @Data public static class Mask { int type; double probability; } } } }
然后是服務(wù)類BaiduCloudService.java,把請(qǐng)求和響應(yīng)百度AI開(kāi)放平臺(tái)的邏輯全部集中在這里,可見(jiàn)其實(shí)很簡(jiǎn)單:根據(jù)圖片的base64字符串構(gòu)造請(qǐng)求對(duì)象、發(fā)POST請(qǐng)求(path是人臉檢測(cè)服務(wù))、收到響應(yīng)后用Jackson反序列化成FaceDetectResponse對(duì)象:
package com.bolingcavalry.grabpush.extend; import com.bolingcavalry.grabpush.bean.request.FaceDetectRequest; import com.bolingcavalry.grabpush.bean.response.FaceDetectResponse; import com.fasterxml.jackson.databind.DeserializationFeature; import com.fasterxml.jackson.databind.ObjectMapper; import okhttp3.*; import java.io.IOException; /** * @author willzhao * @version 1.0 * @description 百度云服務(wù)的調(diào)用 * @date 2022/1/1 11:06 */ public class BaiduCloudService { OkHttpClient client = new OkHttpClient(); static final MediaType JSON = MediaType.parse("application/json; charset=utf-8"); static final String URL_TEMPLATE = "https://aip.baidubce.com/rest/2.0/face/v3/detect?access_token=%s"; String token; ObjectMapper mapper = new ObjectMapper(); public BaiduCloudService(String token) { this.token = token; // 重要:反序列化的時(shí)候,字符的字段如果比類的字段多,下面這個(gè)設(shè)置可以確保反序列化成功 mapper.disable(DeserializationFeature.FAIL_ON_UNKNOWN_PROPERTIES); } /** * 檢測(cè)指定的圖片 * @param imageBase64 * @return */ public FaceDetectResponse detect(String imageBase64) { // 請(qǐng)求對(duì)象 FaceDetectRequest faceDetectRequest = new FaceDetectRequest(); faceDetectRequest.setImageType("BASE64"); faceDetectRequest.setFaceField("mask"); faceDetectRequest.setMaxFaceNum(6); faceDetectRequest.setFaceType("LIVE"); faceDetectRequest.setLivenessControl("NONE"); faceDetectRequest.setFaceSortType(0); faceDetectRequest.setImage(imageBase64); FaceDetectResponse faceDetectResponse = null; try { // 用Jackson將請(qǐng)求對(duì)象序列化成字符串 String jsonContent = mapper.writeValueAsString(faceDetectRequest); // RequestBody requestBody = RequestBody.create(JSON, jsonContent); Request request = new Request .Builder() .url(String.format(URL_TEMPLATE, token)) .post(requestBody) .build(); Response response = client.newCall(request).execute(); String rawRlt = response.body().string(); faceDetectResponse = mapper.readValue(rawRlt, FaceDetectResponse.class); } catch (IOException ioException) { ioException.printStackTrace(); } return faceDetectResponse; } }
服務(wù)類寫完了,接下來(lái)是主程序把整個(gè)邏輯串起來(lái)
DetectService接口的實(shí)現(xiàn)
熟悉《JavaCV的攝像頭實(shí)戰(zhàn)》系列的讀者應(yīng)該對(duì)DetectService接口不陌生了,為了在整個(gè)系列的諸多實(shí)戰(zhàn)中以統(tǒng)一的風(fēng)格實(shí)現(xiàn)抓取幀–>處理幀–>輸出處理結(jié)果這樣的流程,咱們定義了一個(gè)DetectService接口,每種不同幀處理業(yè)務(wù)按照自己的特點(diǎn)來(lái)實(shí)現(xiàn)此接口即可(例如人臉檢測(cè)、年齡檢測(cè)、性別檢測(cè)等)
先來(lái)回顧DetectService接口:
package com.bolingcavalry.grabpush.extend; import org.bytedeco.javacv.Frame; import org.bytedeco.javacv.OpenCVFrameConverter; import org.bytedeco.opencv.opencv_core.*; import org.bytedeco.opencv.opencv_objdetect.CascadeClassifier; import static org.bytedeco.opencv.global.opencv_core.CV_8UC1; import static org.bytedeco.opencv.global.opencv_imgproc.*; /** * @author willzhao * @version 1.0 * @description 檢測(cè)工具的通用接口 * @date 2021/12/5 10:57 */ public interface DetectService { /** * 根據(jù)傳入的MAT構(gòu)造相同尺寸的MAT,存放灰度圖片用于以后的檢測(cè) * @param src 原始圖片的MAT對(duì)象 * @return 相同尺寸的灰度圖片的MAT對(duì)象 */ static Mat buildGrayImage(Mat src) { return new Mat(src.rows(), src.cols(), CV_8UC1); } /** * 檢測(cè)圖片,將檢測(cè)結(jié)果用矩形標(biāo)注在原始圖片上 * @param classifier 分類器 * @param converter Frame和mat的轉(zhuǎn)換器 * @param rawFrame 原始視頻幀 * @param grabbedImage 原始視頻幀對(duì)應(yīng)的mat * @param grayImage 存放灰度圖片的mat * @return 標(biāo)注了識(shí)別結(jié)果的視頻幀 */ static Frame detect(CascadeClassifier classifier, OpenCVFrameConverter.ToMat converter, Frame rawFrame, Mat grabbedImage, Mat grayImage) { // 當(dāng)前圖片轉(zhuǎn)為灰度圖片 cvtColor(grabbedImage, grayImage, CV_BGR2GRAY); // 存放檢測(cè)結(jié)果的容器 RectVector objects = new RectVector(); // 開(kāi)始檢測(cè) classifier.detectMultiScale(grayImage, objects); // 檢測(cè)結(jié)果總數(shù) long total = objects.size(); // 如果沒(méi)有檢測(cè)到結(jié)果,就用原始幀返回 if (total<1) { return rawFrame; } // 如果有檢測(cè)結(jié)果,就根據(jù)結(jié)果的數(shù)據(jù)構(gòu)造矩形框,畫在原圖上 for (long i = 0; i < total; i++) { Rect r = objects.get(i); int x = r.x(), y = r.y(), w = r.width(), h = r.height(); rectangle(grabbedImage, new Point(x, y), new Point(x + w, y + h), Scalar.RED, 1, CV_AA, 0); } // 釋放檢測(cè)結(jié)果資源 objects.close(); // 將標(biāo)注過(guò)的圖片轉(zhuǎn)為幀,返回 return converter.convert(grabbedImage); } /** * 初始化操作,例如模型下載 * @throws Exception */ void init() throws Exception; /** * 得到原始幀,做識(shí)別,添加框選 * @param frame * @return */ Frame convert(Frame frame); /** * 釋放資源 */ void releaseOutputResource(); }
再來(lái)看看本次實(shí)戰(zhàn)中DetectService接口的實(shí)現(xiàn)類BaiduCloudDetectService.java,有幾處要注意的地方稍后會(huì)提到:
package com.bolingcavalry.grabpush.extend; import com.bolingcavalry.grabpush.bean.response.FaceDetectResponse; import lombok.extern.slf4j.Slf4j; import org.bytedeco.javacpp.Loader; import org.bytedeco.javacv.Frame; import org.bytedeco.javacv.Java2DFrameConverter; import org.bytedeco.javacv.OpenCVFrameConverter; import org.bytedeco.opencv.opencv_core.Mat; import org.bytedeco.opencv.opencv_core.Point; import org.bytedeco.opencv.opencv_core.Rect; import org.bytedeco.opencv.opencv_core.Scalar; import org.bytedeco.opencv.opencv_objdetect.CascadeClassifier; import org.opencv.face.Face; import sun.misc.BASE64Encoder; import javax.imageio.ImageIO; import java.awt.image.BufferedImage; import java.io.ByteArrayOutputStream; import java.io.File; import java.io.IOException; import java.net.URL; import java.util.List; import static org.bytedeco.opencv.global.opencv_imgproc.*; import static org.bytedeco.opencv.global.opencv_imgproc.CV_AA; /** * @author willzhao * @version 1.0 * @description 音頻相關(guān)的服務(wù) * @date 2021/12/3 8:09 */ @Slf4j public class BaiduCloudDetectService implements DetectService { /** * 每一幀原始圖片的對(duì)象 */ private Mat grabbedImage = null; /** * 百度云的token */ private String token; /** * 圖片的base64字符串 */ private String base64Str; /** * 百度云服務(wù) */ private BaiduCloudService baiduCloudService; private OpenCVFrameConverter.ToMat openCVConverter = new OpenCVFrameConverter.ToMat(); private Java2DFrameConverter java2DConverter = new Java2DFrameConverter(); private OpenCVFrameConverter.ToMat converter = new OpenCVFrameConverter.ToMat(); private BASE64Encoder encoder = new BASE64Encoder(); /** * 構(gòu)造方法,在此指定模型文件的下載地址 * @param token */ public BaiduCloudDetectService(String token) { this.token = token; } /** * 百度云服務(wù)對(duì)象的初始化 * @throws Exception */ @Override public void init() throws Exception { baiduCloudService = new BaiduCloudService(token); } @Override public Frame convert(Frame frame) { // 將原始幀轉(zhuǎn)成base64字符串 base64Str = frame2Base64(frame); // 記錄請(qǐng)求開(kāi)始的時(shí)間 long startTime = System.currentTimeMillis(); // 交給百度云進(jìn)行人臉和口罩檢測(cè) FaceDetectResponse faceDetectResponse = baiduCloudService.detect(base64Str); // 如果檢測(cè)失敗,就提前返回了 if (null==faceDetectResponse || null==faceDetectResponse.getErrorCode() || !"0".equals(faceDetectResponse.getErrorCode())) { String desc = ""; if (null!=faceDetectResponse) { desc = String.format(",錯(cuò)誤碼[%s],錯(cuò)誤信息[%s]", faceDetectResponse.getErrorCode(), faceDetectResponse.getErrorMsg()); } log.error("檢測(cè)人臉失敗", desc); // 提前返回 return frame; } log.info("檢測(cè)耗時(shí)[{}]ms,結(jié)果:{}", (System.currentTimeMillis()-startTime), faceDetectResponse); // 如果拿不到檢測(cè)結(jié)果,就返回原始幀 if (null==faceDetectResponse.getResult() || null==faceDetectResponse.getResult().getFaceList()) { log.info("未檢測(cè)到人臉"); return frame; } // 取出百度云的檢測(cè)結(jié)果,后面會(huì)逐個(gè)處理 List<FaceDetectResponse.Result.Face> list = faceDetectResponse.getResult().getFaceList(); FaceDetectResponse.Result.Face face; FaceDetectResponse.Result.Face.Location location; String desc; Scalar color; int pos_x; int pos_y; // 如果有檢測(cè)結(jié)果,就根據(jù)結(jié)果的數(shù)據(jù)構(gòu)造矩形框,畫在原圖上 for (int i = 0; i < list.size(); i++) { face = list.get(i); // 每張人臉的位置 location = face.getLocation(); int x = (int)location.getLeft(); int y = (int)location.getHeight(); int w = (int)location.getWidth(); int h = (int)location.getHeight(); // 口罩字段的type等于1表示帶口罩,0表示未帶口罩 if (1==face.getMask().getType()) { desc = "Mask"; color = Scalar.GREEN; } else { desc = "No mask"; color = Scalar.RED; } // 在圖片上框出人臉 rectangle(grabbedImage, new Point(x, y), new Point(x + w, y + h), color, 1, CV_AA, 0); // 人臉標(biāo)注的橫坐標(biāo) pos_x = Math.max(x-10, 0); // 人臉標(biāo)注的縱坐標(biāo) pos_y = Math.max(y-10, 0); // 給人臉做標(biāo)注,標(biāo)注是否佩戴口罩 putText(grabbedImage, desc, new Point(pos_x, pos_y), FONT_HERSHEY_PLAIN, 1.5, color); } // 將標(biāo)注過(guò)的圖片轉(zhuǎn)為幀,返回 return converter.convert(grabbedImage); } /** * 程序結(jié)束前,釋放人臉識(shí)別的資源 */ @Override public void releaseOutputResource() { if (null!=grabbedImage) { grabbedImage.release(); } } private String frame2Base64(Frame frame) { grabbedImage = converter.convert(frame); BufferedImage bufferedImage = java2DConverter.convert(openCVConverter.convert(grabbedImage)); ByteArrayOutputStream bStream = new ByteArrayOutputStream(); try { ImageIO.write(bufferedImage, "png", bStream); } catch (IOException e) { throw new RuntimeException("bugImg讀取失敗:"+e.getMessage(),e); } return encoder.encode(bStream.toByteArray()); } }
上述代碼有以下幾點(diǎn)要注意:
1.整個(gè)BaiduCloudDetectService類,主要是對(duì)前面BaiduCloudService類的使用
2.convert方法中,拿到frame實(shí)例后會(huì)轉(zhuǎn)為base64字符串,用于提交到百度AI開(kāi)放平臺(tái)做人臉檢測(cè)
3.百度AI開(kāi)放平臺(tái)的檢測(cè)結(jié)果中有多個(gè)人臉檢測(cè)結(jié)果,這里要逐個(gè)處理:取出每個(gè)人臉的位置,以此位置在原圖畫矩形框,然后根據(jù)是否戴口罩在人臉上做標(biāo)記,戴口罩的是綠色標(biāo)記(包括矩形框),不戴口罩的是紅色矩形框
主程序
最后是主程序了,還是《JavaCV的攝像頭實(shí)戰(zhàn)》系列的套路,咱們來(lái)看看主程序的服務(wù)類定義好的框架
《JavaCV的攝像頭實(shí)戰(zhàn)之一:基礎(chǔ)》創(chuàng)建的simple-grab-push工程中已經(jīng)準(zhǔn)備好了父類AbstractCameraApplication,所以本篇繼續(xù)使用該工程,創(chuàng)建子類實(shí)現(xiàn)那些抽象方法即可
編碼前先回顧父類的基礎(chǔ)結(jié)構(gòu),如下圖,粗體是父類定義的各個(gè)方法,紅色塊都是需要子類來(lái)實(shí)現(xiàn)抽象方法,所以接下來(lái),咱們以本地窗口預(yù)覽為目標(biāo)實(shí)現(xiàn)這三個(gè)紅色方法即可:
新建文件PreviewCameraWithBaiduCloud.java,這是AbstractCameraApplication的子類,其代碼很簡(jiǎn)單,接下來(lái)按上圖順序依次說(shuō)明
先定義CanvasFrame類型的成員變量previewCanvas,這是展示視頻幀的本地窗口:
protected CanvasFrame previewCanvas
把前面創(chuàng)建的DetectService作為成員變量,后面檢測(cè)的時(shí)候會(huì)用到:
/** * 檢測(cè)工具接口 */ private DetectService detectService;
PreviewCameraWithBaiduCloud的構(gòu)造方法,接受DetectService的實(shí)例:
/** * 不同的檢測(cè)工具,可以通過(guò)構(gòu)造方法傳入 * @param detectService */ public PreviewCameraWithBaiduCloud(DetectService detectService) { this.detectService = detectService; }
然后是初始化操作,可見(jiàn)是previewCanvas的實(shí)例化和參數(shù)設(shè)置,還有檢測(cè)、識(shí)別的初始化操作:
@Override protected void initOutput() throws Exception { previewCanvas = new CanvasFrame("攝像頭預(yù)覽", CanvasFrame.getDefaultGamma() / grabber.getGamma()); previewCanvas.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); previewCanvas.setAlwaysOnTop(true); // 檢測(cè)服務(wù)的初始化操作 detectService.init(); }
接下來(lái)是output方法,定義了拿到每一幀視頻數(shù)據(jù)后做什么事情,這里調(diào)用了detectService.convert檢測(cè)人臉并識(shí)別性別,然后在本地窗口顯示:
@Override protected void output(Frame frame) { // 原始幀先交給檢測(cè)服務(wù)處理,這個(gè)處理包括物體檢測(cè),再將檢測(cè)結(jié)果標(biāo)注在原始圖片上, // 然后轉(zhuǎn)換為幀返回 Frame detectedFrame = detectService.convert(frame); // 預(yù)覽窗口上顯示的幀是標(biāo)注了檢測(cè)結(jié)果的幀 previewCanvas.showImage(detectedFrame); }
最后是處理視頻的循環(huán)結(jié)束后,程序退出前要做的事情,先關(guān)閉本地窗口,再釋放檢測(cè)服務(wù)的資源:
@Override protected void releaseOutputResource() { if (null!= previewCanvas) { previewCanvas.dispose(); } // 檢測(cè)工具也要釋放資源 detectService.releaseOutputResource(); }
每一幀耗時(shí)太多,所以兩幀之間就不再額外間隔了:
@Override protected int getInterval() { return 0; }
至此,功能已開(kāi)發(fā)完成,再寫上main方法,代碼如下,請(qǐng)注意token的值是前面在百度AI開(kāi)放平臺(tái)取得的access_token:
public static void main(String[] args) { String token = "21.xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx.xxxxxxx.xxxxxxxxxx.xxxxxx-xxxxxxxx"; new PreviewCameraWithBaiduCloud(new BaiduCloudDetectService(token)).action(1000); }
至此,代碼寫完了,準(zhǔn)備好攝像頭開(kāi)始驗(yàn)證,群眾演員為了免費(fèi)盒飯已經(jīng)在寒風(fēng)中等了很久啦
驗(yàn)證
運(yùn)行PreviewCameraWithBaiduCloud的main方法,請(qǐng)群眾演員出現(xiàn)在攝像頭前面,此時(shí)不戴口罩,可見(jiàn)人臉上是紅色字體和矩形框:
讓群眾演員戴上口罩,再次出現(xiàn)在攝像頭前面,這次檢測(cè)到了口罩,顯示了綠色標(biāo)注和矩形框:
實(shí)際體驗(yàn)中,由于一秒鐘最多只有兩幀,在預(yù)覽窗口展示時(shí)完全是幻燈片效果,慘不忍睹…
以上就是JavaCV攝像頭實(shí)戰(zhàn)之實(shí)現(xiàn)口罩檢測(cè)的詳細(xì)內(nèi)容,更多關(guān)于JavaCV口罩檢測(cè)的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
解決poi導(dǎo)出時(shí)單元格樣式被覆蓋問(wèn)題
這篇文章主要介紹了解決poi導(dǎo)出時(shí)單元格樣式被覆蓋問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-11-11如何利用JAVA正則表達(dá)式輕松替換JSON中的大字段
這篇文章主要給大家介紹了關(guān)于如何利用JAVA正則表達(dá)式輕松替換JSON中大字段的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-12-12淺談Java自定義注解和運(yùn)行時(shí)靠反射獲取注解
下面小編就為大家?guī)?lái)一篇淺談Java自定義注解和運(yùn)行時(shí)靠反射獲取注解。小編覺(jué)得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2016-11-11通過(guò)FeignClient如何獲取文件流steam?is?close問(wèn)題
這篇文章主要介紹了通過(guò)FeignClient如何獲取文件流steam?is?close問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-06-06java跳出for循環(huán)的三種常見(jiàn)方法
這篇文章主要給大家介紹了關(guān)于java跳出for循環(huán)的三種常見(jiàn)方法,需要的朋友可以參考下2023-07-07淺談Strut2如何對(duì)請(qǐng)求參數(shù)的封裝
這篇文章主要介紹了淺談Strut2如何對(duì)請(qǐng)求參數(shù)的封裝,具有一定借鑒價(jià)值,需要的朋友可以參考下2017-12-12Java實(shí)現(xiàn)微信公眾平臺(tái)朋友圈分享功能詳細(xì)代碼
這篇文章主要介紹了Java實(shí)現(xiàn)微信公眾平臺(tái)朋友圈分享功能詳細(xì)代碼,小編覺(jué)得挺不錯(cuò)的,這里分享給大家,供需要的朋友參考。2017-11-11