pytorch中的dataloader使用方法詳解
pytorch中的dataloader使用方法詳解
DataLoader類中有一個必填參數(shù)為dataset,因此在構建自己的dataloader前,先要定義好自己的Dataset類。這里先大致介紹下這兩個類的作用:
- Dataset:真正的“數(shù)據(jù)集”,它的作用是:只要告訴它數(shù)據(jù)在哪里(初始化),就可以像使用iterator一樣去拿到數(shù)據(jù),繼承該類后,需要重載__len__()以及__getitem__
- DataLoader:數(shù)據(jù)加載器,設置一些參數(shù)后,可以按照一定規(guī)則加載數(shù)據(jù),比如設置batch_size后,每次加載一個batch_siza的數(shù)據(jù)。它像一個生成器一樣工作。
有小伙伴可能會疑惑,自己寫一個加載數(shù)據(jù)的工具似乎也沒有多“困難”,為何大費周章要繼承pytorch中類,按照它的規(guī)則加載數(shù)據(jù)呢?
總結一下就是:
- 當數(shù)據(jù)量很大的時候,單進程加載數(shù)據(jù)很慢
- 一次全加載過來,會占用很大的內(nèi)存空間(因此dataloader是一個生成器,惰性加載)
- 在進行訓練前,往往需要一些數(shù)據(jù)預處理或數(shù)據(jù)增強等操作,pytorch的dataloader已經(jīng)封裝好了,避免了重復造輪子
使用方法
兩步走:
- 定義自己的Dataset類,具體要做的事:
- 告訴它去哪兒讀數(shù)據(jù),并將數(shù)據(jù)resize為統(tǒng)一的shape(可以思考下為什么呢)
- 重寫__len__()以及__getitem__,其中__getitem__中要確定自己想要哪些數(shù)據(jù),然后將其return出來。
- 將自己的Dataset實例傳到Dataloder中并設置想要的參數(shù),構建自己的dataloader
下面簡單加載一個目錄下的圖片以及l(fā)abel:
import os import numpy as np from torch.utils.data.dataset import Dataset from torch.utils.data.dataloader import DataLoader import cv2 # Your Data Path img_dir = '/home/jyz/Downloads/classify_example/val/駿馬/' anno_file = '/home/jyz/Downloads/classify_example/val/label.txt' class MyDataset(Dataset): def __init__(self, img_dir, anno_file, imgsz=(640, 640)): self.img_dir = img_dir self.anno_file = anno_file self.imgsz = imgsz self.img_namelst = os.listdir(self.img_dir) # need to overload def __len__(self): return len(self.img_namelst) # need to overload def __getitem__(self, idx): with open(self.anno_file, 'r') as f: label = f.readline().strip() img = cv2.imread(os.path.join(img_dir, self.img_namelst[idx])) img = cv2.resize(img, self.imgsz) return img, label dataset = MyDataset(img_dir, anno_file) dataloader = DataLoader(dataset=dataset, batch_size=2) # display for img_batch, label_batch in dataloader: img_batch = img_batch.numpy() print(img_batch.shape) # img = np.concatenate(img_batch, axis=0) if img_batch.shape[0] == 2: img = np.hstack((img_batch[0], img_batch[1])) else: img = np.squeeze(img_batch, axis=0) # 最后一張圖時,刪除第一個維度 print(img.shape) cv2.imshow(label_batch[0], img) cv2.waitKey(0)
上面是一次加載兩張圖片,效果如下:
其實從這里可以看出,為什么要在Dataset中將數(shù)據(jù)resize為統(tǒng)一的shape。因為dataloader加載數(shù)據(jù)時,將一個batch_size的數(shù)據(jù)拼接成一個大的tensor,如果shape不同,就無法拼接了。
就像這兩張圖片加入shape不一樣就無法通過拼接的方式show出來一樣。
結論
- 使用pytorch的dataloader,需要先構建自己的Dataset
- 構建自己的Dataset,需要重載__len__()以及__getitem__
到此這篇關于pytorch中的dataloader使用方法詳解的文章就介紹到這了,更多相關pytorch的dataloader使用內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
卡爾曼濾波數(shù)據(jù)處理技巧通俗理解及python實現(xiàn)
這篇文章主要為大家介紹了卡爾曼濾波數(shù)據(jù)處理技巧的通俗理解及python實現(xiàn),有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2022-05-05基于django micro搭建網(wǎng)站實現(xiàn)加水印功能
這篇文章主要介紹了基于django micro搭建網(wǎng)站實現(xiàn)加水印功能,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-05-05Python中2種常用數(shù)據(jù)可視化庫Bokeh和Altair使用示例詳解
本文對Python中兩個常用的數(shù)據(jù)可視化庫?Bokeh?和?Altair?進行了比較和探討,通過對它們的特點、優(yōu)缺點以及使用示例的詳細分析,讀者可以更好地了解這兩個庫的功能和適用場景,從而更好地選擇合適的庫來進行數(shù)據(jù)可視化工作,感興趣的朋友跟隨小編一起看看吧2024-04-04