欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

解決pytorch DataLoader num_workers出現(xiàn)的問題

 更新時(shí)間:2020年01月14日 09:21:53   作者:楓溪彤  
今天小編就為大家分享一篇解決pytorch DataLoader num_workers出現(xiàn)的問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧

最近在學(xué)pytorch,在使用數(shù)據(jù)分批訓(xùn)練時(shí)在導(dǎo)入數(shù)據(jù)是使用了 DataLoader 在參數(shù) num_workers的設(shè)置上使程序出現(xiàn)運(yùn)行沒有任何響應(yīng)的結(jié)果 ,看看代碼

import torch  #導(dǎo)入模塊
import torch.utils.data as Data

BATCH_SIZE=8 #每一批的數(shù)據(jù)量

x=torch.linspace(1,10,10) #定義X為 1 到 10 等距離大小的數(shù)
y=torch.linspace(10,1,10)

#轉(zhuǎn)換成torch能識(shí)別的Dataset
torch_dataset = Data.TensorDataset( x,y) #將數(shù)據(jù)放入 torch_dataset

loader=Data.DataLoader(
    dataset=torch_dataset,   #將數(shù)據(jù)放入loader
    batch_size=BATCH_SIZE, #每個(gè)數(shù)據(jù)段大小為 BATCH_SIZE=5
    shuffle=True ,  #是否打亂數(shù)據(jù)的排布
    num_workers=2 #每次提取數(shù)據(jù)多進(jìn)進(jìn)程為2
    )
for epoch in range(3):
  
  for step,(batch_x,batch_y) in enumerate(loader):
    
    print('epoch',epoch,'|step:',step," | batch_x",batch_x.numpy(),

       '|batch_y:',batch_y.numpy())

(以上代碼取莫煩python教學(xué)視頻,教學(xué)視頻中沒有報(bào)錯(cuò))

程序就停止成這樣了

上網(wǎng)查詢沒有得到有用的東西,因?yàn)槌绦驔]有報(bào)錯(cuò),就是沒有任何反應(yīng),(沒有反應(yīng)可能跟電腦或者編譯器有關(guān),我使用的是anconda spyder)于是決定自己找找

期初我采用在語句后面加 print('1')檢測程序停在了什么地方,(其實(shí)這是一種笨方法,在這里可以采用斷點(diǎn)調(diào)試)程序停在了 for step,(batch_x,batch_y) in enumerate(loader):

我以為是enumerate的問題,查資料發(fā)現(xiàn)這就是一個(gè)可返回列表元素和鍵值的函數(shù),不存在問題

繼續(xù)排查,把目光放在了loader,于是查詢了DataLoader的參數(shù)

DataLoader的函數(shù)定義如下:

DataLoader(dataset, batch_size=1, shuffle=False, sampler=None,
num_workers=0, collate_fn=default_collate, pin_memory=False,
drop_last=False)

1. dataset:加載的數(shù)據(jù)集(Dataset對(duì)象)

2. batch_size:batch size

3. shuffle::是否將數(shù)據(jù)打亂

4. sampler: 樣本抽樣,后續(xù)會(huì)詳細(xì)介紹

5. num_workers:使用多進(jìn)程加載的進(jìn)程數(shù),0代表不使用多進(jìn)程

6. collate_fn: 如何將多個(gè)樣本數(shù)據(jù)拼接成一個(gè)batch,一般使用默認(rèn)的拼接方式即可

7. pin_memory:是否將數(shù)據(jù)保存在pin memory區(qū),pin memory中的數(shù)據(jù)轉(zhuǎn)到GPU會(huì)快一些

8. drop_last:dataset中的數(shù)據(jù)個(gè)數(shù)可能不是batch_size的整數(shù)倍,drop_last為True會(huì)將多出來不足一個(gè)batch的數(shù)據(jù)丟棄

發(fā)現(xiàn)我所定義的幾個(gè)參數(shù)只有num_workers嫌疑最大,于是將參數(shù)值改成了默認(rèn)值 0,程序可以運(yùn)行了,(一把老淚縱橫)

看看進(jìn)程是什么鬼 發(fā)現(xiàn)在這里好像沒啥用(具體自己上網(wǎng)查查)

以上這篇解決pytorch DataLoader num_workers出現(xiàn)的問題就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論