欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Python Pytorch深度學(xué)習(xí)之圖像分類器

 更新時(shí)間:2021年10月28日 10:36:15   作者:柚子味的羊  
今天小編就為大家分享一篇關(guān)于Pytorch圖像分類器的文章,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧

一、簡介

通常,當(dāng)處理圖像、文本、語音或視頻數(shù)據(jù)時(shí),可以使用標(biāo)準(zhǔn)Python將數(shù)據(jù)加載到numpy數(shù)組格式,然后將這個(gè)數(shù)組轉(zhuǎn)換成torch.*Tensor

  • 對于圖像,可以用Pillow,OpenCV
  • 對于語音,可以用scipy,librosa
  • 對于文本,可以直接用Python或Cython基礎(chǔ)數(shù)據(jù)加載模塊,或者用NLTK和SpaCy

特別是對于視覺,Pytorch已經(jīng)創(chuàng)建了一個(gè)叫torchvision的package,該報(bào)包含了支持加載類似Imagenet,CIFAR10,MNIST等公共數(shù)據(jù)集的數(shù)據(jù)加載??靦orchvision.datasets和支持加載圖像數(shù)據(jù)數(shù)據(jù)轉(zhuǎn)換模塊torch.utils.data.DataLoader。這提供了極大地便利,并避免了編寫“樣板代碼”

二、數(shù)據(jù)集

對于本小節(jié),使用CIFAR10數(shù)據(jù)集,它包含了是個(gè)類別:airplane,automobile,bird,cat,deer,dog,frog,horse,ship,truck。CIFAR10中的圖像尺寸是33232,也就是RGB的3層顏色通道,每層通道內(nèi)的尺寸為32*32

三、訓(xùn)練一個(gè)圖像分類器

訓(xùn)練圖像分類器的步驟

  • 使用torchvision加載并且歸一化CIFAR10的訓(xùn)練和測試數(shù)據(jù)集
  • 定義一個(gè)卷積神經(jīng)網(wǎng)絡(luò)
  • 定義一個(gè)損失函數(shù)
  • 在訓(xùn)練樣本數(shù)據(jù)上訓(xùn)練網(wǎng)絡(luò)
  • 在測試樣本數(shù)據(jù)上測試網(wǎng)絡(luò)

1、導(dǎo)入package吧

# 使用torchvision,加載并歸一化CIFAR10
import torch
import torchvision
import torchvision.transforms as transforms

2、歸一化處理+貼標(biāo)簽吧

# torchvision數(shù)據(jù)集的輸出是范圍在[0,1]之間的PILImage,將他們轉(zhuǎn)換成歸一化范圍為[-1,1]之間的張量Tensor
transform=transforms.Compose(
    [transforms.ToTensor(),
     transforms.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))]
    )
# 訓(xùn)練集
trainset=torchvision.datasets.CIFAR10(root='./data',train=True,download=False,transform=transform)
trainloader=torch.utils.data.DataLoader(trainset,batch_size=4,shuffle=True,num_workers=2)
# 測試集
testset=torchvision.datasets.CIFAR10(root='./data',train=False,download=False,transform=transform)
testloader=torch.utils.data.DataLoader(testset,batch_size=4,shuffle=False,num_workers=2)
classes=("plane","car","bird","cat","deer","dog","frog","horse","ship","truck")

3、先來康康訓(xùn)練集中的照片吧

# 展示其中的訓(xùn)練照片
import matplotlib.pyplot as plt
import numpy as np
# 定義圖片顯示的function
def imshow(img):
    img=img/2+0.5
    npimg=img.numpy()
    plt.imshow(np.transpose(npimg,(1,2,0)))
    plt.show()
# 得到隨機(jī)訓(xùn)練圖像
dataiter=iter(trainloader)
images,labels=dataiter.next()
# 展示圖片
imshow(torchvision.utils.make_grid(images))
#打印標(biāo)簽labels
print(' '.join("%5s"%classes[labels[j]] for j in range(4)))

運(yùn)行結(jié)果

在這里插入圖片描述

在這里插入圖片描述

注:初學(xué)的猿仔們?nèi)绻鸖pyder不顯示圖片,自己設(shè)置一下就OK,在Tools——>Preferences中設(shè)置如下:

在這里插入圖片描述

4、定義一個(gè)神經(jīng)網(wǎng)絡(luò)吧

此處,復(fù)制前一節(jié)的神經(jīng)網(wǎng)絡(luò)(在這里),并修改為3通道的圖片(之前定義的是1通道)

#%%
# 定義卷積神經(jīng)網(wǎng)絡(luò)
import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
    def __init__(self):
        super(Net,self).__init__()
        # 1個(gè)輸入,6個(gè)輸出,5*5的卷積
        # 內(nèi)核
        self.conv1=nn.Conv2d(3,6,5)#定義三個(gè)通道
        self.pool=nn.MaxPool2d(2,2)
        self.conv2=nn.Conv2d(6,16,5)
        # 映射函數(shù):線性——y=Wx+b
        self.fc1=nn.Linear(16*5*5,120)#輸入特征值:16*5*5,輸出特征值:120
        self.fc2=nn.Linear(120,84)
        self.fc3=nn.Linear(84,10)
    def forward(self,x):
        x=self.pool(F.relu(self.conv1(x)))
        x=self.pool(F.relu(self.conv2(x)))
        x=x.view(-1,16*5*5)
        x=F.relu(self.fc1(x))
        x=F.relu(self.fc2(x))
        x=self.fc3(x)
        return x
net=Net()

Tips:在Spyder中可用使用“#%%”得到cell塊,之后對每個(gè)cell進(jìn)行運(yùn)行,快捷鍵(Ctrl+Enter)——>我太愛用快捷鍵了,無論是什么能用鍵盤堅(jiān)決不用鼠標(biāo)(是真的懶吧?。。。?/p>

5、定義一個(gè)損失函數(shù)和優(yōu)化器吧

使用分類交叉熵Cross-Entropy做損失函數(shù),動量SGD做優(yōu)化器

#%%
# 定義一個(gè)損失函數(shù)和優(yōu)化器
import torch.optim as optim
criterion=nn.CrossEntropyLoss()
optimizer=optim.SGD(net.parameters(), lr=0.001,momentum=0.9)

6、訓(xùn)練網(wǎng)絡(luò)吧

此處只需要在數(shù)據(jù)迭代器上循環(huán)輸入網(wǎng)絡(luò)和優(yōu)化器

#%%訓(xùn)練網(wǎng)絡(luò)
for epoch in range(2):
    running_loss=0.0
    for i,data in enumerate(trainloader,0):
        #得到輸入
        inputs,labels=data
        # 將參數(shù)的梯度值置零
        optimizer.zero_grad()
        #反向傳播+優(yōu)化
        outputs=net(inputs)
        loss=criterion(outputs,labels)
        loss.backward()
        optimizer.step()
        #打印數(shù)據(jù)
        running_loss+=loss.item()
        if i% 2000==1999:
            print('[%d,%5d] loss: %.3f'%(epoch+1,i+1,running_loss/2000))#每2000個(gè)輸出一次
print('Finished Training')

運(yùn)行結(jié)果

在這里插入圖片描述

7、在測試集上測試一下網(wǎng)絡(luò)吧

已經(jīng)通過訓(xùn)練數(shù)據(jù)集對網(wǎng)絡(luò)進(jìn)行了兩次訓(xùn)練,但是我們需要檢查是否已經(jīng)學(xué)到了東西。將使用神經(jīng)網(wǎng)絡(luò)的輸出作為預(yù)測的類標(biāo)來檢查網(wǎng)絡(luò)的預(yù)測性能,用樣本的真實(shí)類標(biāo)校對,如過預(yù)測正確,將樣本添加到正確預(yù)測的列表中

#%%
#在測試集上顯示
outputs=net(images)
# 輸出是預(yù)測與十個(gè)類的相似程度,與某一個(gè)類的近似程度越高,網(wǎng)絡(luò)就越認(rèn)為圖像是屬于這一類別
# 打印其中最相似類別類標(biāo)
_, predictd=torch.max(outputs,1)
print('Predicted:',' '.join('%5s'% classes[predictd[j]]
                            for j in range(4)))

運(yùn)行結(jié)果

在這里插入圖片描述

把網(wǎng)絡(luò)放在整個(gè)數(shù)據(jù)集上看看具體表現(xiàn)

#%% 結(jié)果看起來還好55%,看看網(wǎng)絡(luò)在整個(gè)數(shù)據(jù)集的表現(xiàn)
correct=0
total=0
with torch.no_grad():
    for data in testloader:
        images,labels=data
        outputs=net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted==labels).sum().item()
print('Accuracy of the network on the 10000 test images:%d %%' % (
    100*correct/total))

運(yùn)行結(jié)果

在這里插入圖片描述

8、分別查看一下訓(xùn)練效果吧

#%%分類查看
class_correct=list(0. for i in range(10))
class_total=list(0. for i in range(10))
with torch.no_grad():
    for data in testloader:
        images,labels=data
        outputs=net(images)
        _, predictd=torch.max(outputs,1)
        c=(predictd==labels).squeeze()
        for i in range(4):
            label=labels[i]
            class_correct[label]+=c[i].item()
            class_total[label]+=1
            
for i in range(10):
    print('Accuracy of %5s:%2d %%'% (classes[i],100*class_correct[i]/class_total[i]))

運(yùn)行結(jié)果

在這里插入圖片描述

總結(jié)

本篇文章就到這里了,希望能夠給你帶來幫助,也希望您能夠多多關(guān)注腳本之家的更多內(nèi)容!

相關(guān)文章

最新評論