python+opencv實現(xiàn)視頻抽幀示例代碼
1、數(shù)據(jù)集簡述:
雖然有主流龐大的COCO、VOC數(shù)據(jù)集,但是科研人員仍需要特殊領域要求的數(shù)據(jù)集,所以采用人工實地采集的方式進行收集數(shù)據(jù)集圖像;通過拍照收集圖像過于繁瑣,所以通常是將攝像頭無規(guī)則的移動旋轉以及遠近拉縮,進而錄制視頻;再通過視頻抽幀的方式得到大量的圖像,再將這些圖像進行人工標注處理。
博主通過一個水下錄制視頻為例子,當這類圖像在網上鮮有存在時,要求有關技術人員進行實拍采集,下圖即為采集得到的視頻。

為了避免不符合項目要求的數(shù)據(jù)增強,博主要求技術人員在錄制視頻時最大程度地讓攝像頭進行移動、旋轉以及遠近調節(jié)等;這樣抽幀后的圖像更具有泛化性。
2、代碼介紹:
下面是采用以幀數(shù)為間隔的方法進行視頻抽幀,博主個人認為這樣子的方式調節(jié)間隔更加方便,更符合個人習慣。
import cv2
from PIL import Image
import numpy as np
cap = cv2.VideoCapture("D:/Download/ANMR0005.mp4") # 獲取視頻對象
isOpened = cap.isOpened # 判斷是否打開
# 視頻信息獲取
fps = cap.get(cv2.CAP_PROP_FPS)
imageNum = 0
sum=0
timef=15 #隔15幀保存一張圖片
while (isOpened):
sum+=1
(frameState, frame) = cap.read() # 記錄每幀及獲取狀態(tài)
if frameState == True and (sum % timef==0):
# 格式轉變,BGRtoRGB
frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
# 轉變成Image
frame = Image.fromarray(np.uint8(frame))
frame = np.array(frame)
# RGBtoBGR滿足opencv顯示格式
frame = cv2.cvtColor(frame, cv2.COLOR_RGB2BGR)
imageNum = imageNum + 1
fileName = 'D:/Download/video_image/image' + str(imageNum) + '.jpg' # 存儲路徑
cv2.imwrite(fileName, frame, [cv2.IMWRITE_JPEG_QUALITY, 100])
print(fileName + " successfully write in") # 輸出存儲狀態(tài)
elif frameState == False:
break
print('finish!')
cap.release()
3、代碼效果:
pycharm運行py文件后結果框顯示的內容:

視頻抽幀得到的圖像保存至指定的文件夾:

抽幀得到的圖片示例:
4、相關說明: ①本代碼依據(jù)錄制視頻、對opencv的理解以及大佬的項目代碼靈感進行編寫;
②本數(shù)據(jù)集屬于私人閉源,不公開。
到此這篇關于python+opencv實現(xiàn)視頻抽幀的文章就介紹到這了,更多相關python opencv視頻抽幀內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
Python3中正則模塊re.compile、re.match及re.search函數(shù)用法詳解
這篇文章主要介紹了Python3中正則模塊re.compile、re.match及re.search函數(shù)用法,結合實例形式較為詳細的分析了re模塊 中re.compile、re.match及re.search函數(shù)的功能、參數(shù)、具體使用技巧與注意事項,需要的朋友可以參考下2018-06-06
python使用ctypes調用第三方庫時出現(xiàn)undefined?symbol錯誤詳解
python中時間的庫有time和datetime,pandas也有提供相應的時間處理函數(shù),下面這篇文章主要給大家介紹了關于python使用ctypes調用第三方庫時出現(xiàn)undefined?symbol錯誤的相關資料,需要的朋友可以參考下2023-02-02
Python?jieba分詞添加自定義詞和去除不需要長尾詞的操作方法
這篇文章主要介紹了Python?jieba分詞如何添加自定義詞和去除不需要長尾詞,主要介紹jieba的基礎用法,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2023-03-03

