欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Pytorch自己加載單通道圖片用作數(shù)據(jù)集訓(xùn)練的實例

 更新時間:2020年01月18日 15:06:56   作者:灰色橡皮擦  
今天小編就為大家分享一篇Pytorch自己加載單通道圖片用作數(shù)據(jù)集訓(xùn)練的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧

pytorch 在torchvision包里面有很多的的打包好的數(shù)據(jù)集,例如minist,Imagenet-12,CIFAR10 和CIFAR100。在torchvision的dataset包里面,用的時候直接調(diào)用就行了。具體的調(diào)用格式可以去看文檔(目前好像只有英文的)。網(wǎng)上也有很多源代碼。

不過,當(dāng)我們想利用自己制作的數(shù)據(jù)集來訓(xùn)練網(wǎng)絡(luò)模型時,就要有自己的方法了。pytorch在torchvision.dataset包里面封裝過一個函數(shù)ImageFolder()。這個函數(shù)功能很強大,只要你直接將數(shù)據(jù)集路徑保存為例如“train/1/1.jpg ,rain/1/2.jpg …… ”就可以根據(jù)根目錄“./train”將數(shù)據(jù)集裝載了。

dataset.ImageFolder(root="datapath", transfroms.ToTensor())

但是后來我發(fā)現(xiàn)一個問題,就是這個函數(shù)加載出來的圖像矩陣都是三通道的,并且沒有什么參數(shù)調(diào)用可以讓其變?yōu)閱瓮ǖ?。如果我們要用到單通道?shù)據(jù)集(灰度圖)的話,比如自己加載Lenet-5模型的數(shù)據(jù)集,就只能自己寫numpy數(shù)組再轉(zhuǎn)為pytorch的Tensor()張量了。

接下來是我做的過程:

首先,還是要用到opencv,用灰度圖打開一張圖片,省事。

#讀取圖片 這里是灰度圖 
 for item in all_path:
  img = cv2.imread(item[1],0)
  img = cv2.resize(img,(28,28))
  arr = np.asarray(img,dtype="float32")
  data_x[i ,:,:,:] = arr
  i+=1
  data_y.append(int(item[0]))
  
 data_x = data_x / 255
 data_y = np.asarray(data_y)

其次,pytorch有自己的numpy轉(zhuǎn)Tensor函數(shù),直接轉(zhuǎn)就行了。

 data_x = torch.from_numpy(data_x)
 data_y = torch.from_numpy(data_y)

下一步利用torch.util和torchvision里面的dataLoader函數(shù),就能直接得到和torchvision.dataset里面封裝好的包相同的數(shù)據(jù)集樣本了

 dataset = dataf.TensorDataset(data_x,data_y)
 loader = dataf.DataLoader(dataset, batch_size=batchsize, shuffle=True)

最后就是自己建網(wǎng)絡(luò)設(shè)計參數(shù)訓(xùn)練了,這部分和文檔以及github中的差不多,就不贅述了。

下面是整個程序的源代碼,我利用的還是上次的車標(biāo)識別的數(shù)據(jù)集,一共分四類,用的是2層卷積核兩層全連接。

源代碼:

# coding=utf-8
import os
import cv2
import numpy as np
import random
 
import torch
import torch.nn as nn
import torch.utils.data as dataf
from torch.autograd import Variable
import torch.nn.functional as F
import torch.optim as optim
 
#訓(xùn)練參數(shù)
cuda = False
train_epoch = 20
train_lr = 0.01
train_momentum = 0.5
batchsize = 5
 
 
#測試訓(xùn)練集路徑
test_path = "/home/test/"
train_path = "/home/train/"
 
#路徑數(shù)據(jù)
all_path =[]
 
def load_data(data_path):
 signal = os.listdir(data_path)
 for fsingal in signal: 
  filepath = data_path+fsingal
  filename = os.listdir(filepath)
  for fname in filename:
   ffpath = filepath+"/"+fname
   path = [fsingal,ffpath]
   all_path.append(path)
   
#設(shè)立數(shù)據(jù)集多大
 count = len(all_path)
 data_x = np.empty((count,1,28,28),dtype="float32")
 data_y = []
#打亂順序
 random.shuffle(all_path)
 i=0;
 
#讀取圖片 這里是灰度圖 最后結(jié)果是i*i*i*i
#分別表示:batch大小 , 通道數(shù), 像素矩陣
 for item in all_path:
  img = cv2.imread(item[1],0)
  img = cv2.resize(img,(28,28))
  arr = np.asarray(img,dtype="float32")
  data_x[i ,:,:,:] = arr
  i+=1
  data_y.append(int(item[0]))
  
 data_x = data_x / 255
 data_y = np.asarray(data_y)
#  lener = len(all_path)
 data_x = torch.from_numpy(data_x)
 data_y = torch.from_numpy(data_y)
 dataset = dataf.TensorDataset(data_x,data_y)
 
 loader = dataf.DataLoader(dataset, batch_size=batchsize, shuffle=True)
  
 return loader
#  print data_y
 
 
 
train_load = load_data(train_path)
test_load = load_data(test_path)
 
class L5_NET(nn.Module):
 def __init__(self):
  super(L5_NET ,self).__init__();
  #第一層輸入1,20個卷積核 每個5*5
  self.conv1 = nn.Conv2d(1 , 20 , kernel_size=5)
  #第二層輸入20,30個卷積核 每個5*5
  self.conv2 = nn.Conv2d(20 , 30 , kernel_size=5)
  #drop函數(shù)
  self.conv2_drop = nn.Dropout2d()
  #全鏈接層1,展開30*4*4,連接層50個神經(jīng)元
  self.fc1 = nn.Linear(30*4*4,50)
  #全鏈接層1,50-4 ,4為最后的輸出分類
  self.fc2 = nn.Linear(50,4)
 
 #前向傳播
 def forward(self,x):
  #池化層1 對于第一層卷積池化,池化核2*2
  x = F.relu(F.max_pool2d( self.conv1(x)  ,2 ) )
  #池化層2 對于第二層卷積池化,池化核2*2
  x = F.relu(F.max_pool2d( self.conv2_drop( self.conv2(x) ) , 2 ) )
  #平鋪軸30*4*4個神經(jīng)元
  x = x.view(-1 , 30*4*4)
  #全鏈接1
  x = F.relu( self.fc1(x) )
  #dropout鏈接
  x = F.dropout(x , training= self.training)
  #全鏈接w
  x = self.fc2(x)
  #softmax鏈接返回結(jié)果
  return F.log_softmax(x)
 
model = L5_NET()
if cuda :
 model.cuda()
  
 
optimizer = optim.SGD(model.parameters()  , lr =train_lr , momentum = train_momentum )
 
#預(yù)測函數(shù)
def train(epoch):
 model.train()
 for batch_idx, (data, target) in enumerate(train_load):
  if cuda:
   data, target = data.cuda(), target.cuda()
  data, target = Variable(data), Variable(target)
  #求導(dǎo)
  optimizer.zero_grad()
  #訓(xùn)練模型,輸出結(jié)果
  output = model(data)
  #在數(shù)據(jù)集上預(yù)測loss
  loss = F.nll_loss(output, target)
  #反向傳播調(diào)整參數(shù)pytorch直接可以用loss
  loss.backward()
  #SGD刷新進步
  optimizer.step()
  #實時輸出
  if batch_idx % 10 == 0:
   print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
    epoch, batch_idx * len(data), len(train_load.dataset),
    100. * batch_idx / len(train_load), loss.data[0]))
#    
   
#測試函數(shù)
def test(epoch):
 model.eval()
 test_loss = 0
 correct = 0
 for data, target in test_load:
  
  if cuda:
   data, target = data.cuda(), target.cuda()
   
  data, target = Variable(data, volatile=True), Variable(target)
  #在測試集上預(yù)測
  output = model(data)
  #計算在測試集上的loss
  test_loss += F.nll_loss(output, target).data[0]
  #獲得預(yù)測的結(jié)果
  pred = output.data.max(1)[1] # get the index of the max log-probability
  #如果正確,correct+1
  correct += pred.eq(target.data).cpu().sum()
 
 #loss計算
 test_loss = test_loss
 test_loss /= len(test_load)
 #輸出結(jié)果
 print('\nThe {} epoch result : Average loss: {:.6f}, Accuracy: {}/{} ({:.2f}%)\n'.format(
  epoch,test_loss, correct, len(test_load.dataset),
  100. * correct / len(test_load.dataset)))
 
for epoch in range(1, train_epoch+ 1):
 train(epoch)
 test(epoch)
 

最后的訓(xùn)練結(jié)果和在keras下差不多,不過我訓(xùn)練的時候好像把訓(xùn)練集和測試集弄反了,數(shù)目好像測試集比訓(xùn)練集還多,有點尷尬,不過無傷大雅。結(jié)果圖如下:

以上這篇Pytorch自己加載單通道圖片用作數(shù)據(jù)集訓(xùn)練的實例就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • python 實現(xiàn)二維字典的鍵值合并等函數(shù)

    python 實現(xiàn)二維字典的鍵值合并等函數(shù)

    今天小編就為大家分享一篇python 實現(xiàn)二維字典的鍵值合并等函數(shù),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-12-12
  • python去除字符串中空格的6種常用方法

    python去除字符串中空格的6種常用方法

    最近業(yè)務(wù)需要對Pyhon中的一些字符串內(nèi)容去除空格,方便后續(xù)處理,下面這篇文章主要給大家介紹了關(guān)于python去除字符串中空格的6種常用方法,文中通過實例代碼介紹的非常詳細(xì),需要的朋友可以參考下
    2023-05-05
  • python實現(xiàn)交并比IOU教程

    python實現(xiàn)交并比IOU教程

    這篇文章主要介紹了python實現(xiàn)交并比IOU教程,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-04-04
  • py中的目錄與文件判別代碼

    py中的目錄與文件判別代碼

    python中的判別目錄和文件的腳本
    2008-07-07
  • 正確理解python迭代器與生成器

    正確理解python迭代器與生成器

    在Python這門語言中,生成器毫無疑問是最有用的特性之一。與此同時,也是使用的最不廣泛的Python特性之一。究其原因,主要是因為,在其他主流語言里面沒有生成器的概念。本文將詳細(xì)介紹python迭代器與生成器
    2021-06-06
  • 對PyQt5中樹結(jié)構(gòu)的實現(xiàn)方法詳解

    對PyQt5中樹結(jié)構(gòu)的實現(xiàn)方法詳解

    今天小編就為大家分享一篇對PyQt5中樹結(jié)構(gòu)的實現(xiàn)方法詳解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-06-06
  • 定位python內(nèi)存泄漏問題及解決

    定位python內(nèi)存泄漏問題及解決

    這篇文章主要介紹了定位python內(nèi)存泄漏問題及解決方案,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2023-11-11
  • 為Python的web框架編寫MVC配置來使其運行的教程

    為Python的web框架編寫MVC配置來使其運行的教程

    這篇文章主要介紹了為Python的web框架編寫MVC配置來使其運行的教程,示例代碼基于Python2.x版本,需要的朋友可以參考下
    2015-04-04
  • 如何使用Python提取Chrome瀏覽器保存的密碼

    如何使用Python提取Chrome瀏覽器保存的密碼

    今天小編教大家怎么用Python提取Chrome瀏覽器保存的密碼,在這需要導(dǎo)入一些必要模塊定義一些有用的函數(shù)來幫助我們在主函數(shù)中調(diào)用,具體實例代碼跟隨小編一起學(xué)習(xí)下吧
    2021-06-06
  • 使用Turtle畫正螺旋線的方法

    使用Turtle畫正螺旋線的方法

    下面小編就為大家?guī)硪黄褂肨urtle畫正螺旋線的方法。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2017-09-09

最新評論