欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Pytorch相關(guān)知識介紹與應(yīng)用

 更新時間:2022年11月21日 13:59:50   作者:明湖小蝦  
最近又重拾了機器學(xué)習(xí)的相關(guān)技術(shù),在本科畢設(shè)的階段下學(xué)習(xí)使用了Tensorflow 2.x工具,當(dāng)時也是不求甚解,直接拿來用了,但現(xiàn)在已經(jīng)有充足的時間、精力和基礎(chǔ)知識來重新學(xué)習(xí)一下

前言

目前機器學(xué)習(xí)框架有兩大方向,Pytorch和Tensorflow 2。對于機器學(xué)習(xí)的小白的我來說,直觀的感受是Tensorflow的框架更加傻瓜式,在這個框架下只需要定義神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、輸入和輸出,然后直接使用其框架下的各種框架函數(shù)即可。而對于Pytorch來說,則使用者能操作、定義的細(xì)節(jié)更多,但與此同時使用難度也會更高。

通過各種資料也顯示,在學(xué)術(shù)研究范圍內(nèi),越來越多的人使用Pytorch,其實Tensorflow也不錯,但對于普通小白來說入手更快,應(yīng)用也更快。本著全面發(fā)展,多嘗試的心態(tài),開始Pytorch學(xué)習(xí)。

小編將從自身的理解習(xí)慣開始不斷更新這篇博文:

1.Pytorch簡介

Pytorch就是一個神經(jīng)網(wǎng)絡(luò)框架,使用Pytorch可以跳過很多不必要的底層工作,很多通用的方法、數(shù)據(jù)結(jié)構(gòu)都已經(jīng)實現(xiàn)供我們調(diào)用,從而可以讓我們將精力集中在改進(jìn)數(shù)據(jù)質(zhì)量、網(wǎng)絡(luò)結(jié)構(gòu)和評估方法上去。

使用和訓(xùn)練神經(jīng)網(wǎng)絡(luò)從思考順序上來說無非就三個階段:

1)構(gòu)思神經(jīng)網(wǎng)絡(luò)的輸入、輸出和網(wǎng)絡(luò)結(jié)構(gòu),其中輸入輸出非常關(guān)鍵。

2)訓(xùn)練數(shù)據(jù)集(粗糙的原始數(shù)據(jù))。

3)如何將訓(xùn)練數(shù)據(jù)集轉(zhuǎn)換成神經(jīng)網(wǎng)絡(luò)能夠接受并且能夠正確輸出的結(jié)構(gòu)。

4)訓(xùn)練神經(jīng)網(wǎng)絡(luò)并進(jìn)行預(yù)測。

2.Pytorch定義神經(jīng)網(wǎng)絡(luò)的輸入輸出和結(jié)構(gòu)

使用Pytorch定義神經(jīng)網(wǎng)絡(luò)非常通用的格式:

class NN(nn.Module):
    def __init__(self):
        super(NN,self).__init__()#繼承tOrch中已經(jīng)寫好的類,包含神經(jīng)網(wǎng)絡(luò)其余所有通用必要方法函數(shù)。
        self.flatten=nn.Flatten()#加入展平函數(shù)。
        self.net=nn.Sequential(#調(diào)用Sequential方法定義神經(jīng)網(wǎng)絡(luò)。
            nn.Linear(100*3,100*3),
            nn.ReLU(),
            nn.Linear(100*3,100*3),
            nn.ReLU(),
            nn.Linear(100*3,27)
        )
    def forward(self,x):#自定義神經(jīng)網(wǎng)絡(luò)的前向傳播函數(shù),本文使用了正常的前向傳播函數(shù),但最終的結(jié)果給出三個輸出。
        result=self.net(x)
        r1=result[:9]
        r2=result[9:18]
        r3=result[18:27]    
        return [r1,r2,r3]
 

到這里基本上已經(jīng)定義了自己的神經(jīng)網(wǎng)絡(luò)了,輸入為100*3=200個數(shù)據(jù)、輸出為27個數(shù)據(jù)。那么問題來了,怎么把數(shù)據(jù)輸入進(jìn)去呢?

3.Pytorch神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)格式-tensor

對于編程小白、機器學(xué)習(xí)小白的我或者大家來說,tensor的直接定義不好理解。

tensor表面上只進(jìn)行了存儲,但實際上它包含了很多中方法,直接使用tensor.Method()調(diào)用相關(guān)方法即可,而省去了自己來定義函數(shù),再操作數(shù)據(jù)結(jié)構(gòu)。并且在Pytorch進(jìn)行訓(xùn)練時,也會在其內(nèi)部調(diào)用這些方法,所以就需要我們使用這些數(shù)據(jù)結(jié)構(gòu)來作為Pytorch神經(jīng)網(wǎng)的輸入,并且神經(jīng)網(wǎng)絡(luò)的輸出也是tensor形式,numpy array 和 list 和 tensor 的轉(zhuǎn)換其實就是數(shù)據(jù)相同,但集成了不同方法的數(shù)據(jù)結(jié)構(gòu)。

那么下面就是輸入數(shù)據(jù)的定義。train_data和labels都是我們使用python方法寫出的list。

#train_data、labels都是list,經(jīng)過list->ndarray->tensor的轉(zhuǎn)換過程。
train_data=torch.tensor(np.array(train_data)).to(torch.float32).to(device)
labels=torch.tensor(np.array(labels)).to(torch.float32).to(device)

4.神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測

使用神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測(前向傳播)、計算損失函數(shù)、反向傳播更新梯度

1)進(jìn)行前向傳播

#train_data[0]即為訓(xùn)練數(shù)據(jù)的第一條輸入數(shù)據(jù)。
prediction=model(train_data[0])

2)計算損失

#定義優(yōu)化器
optim=torch.optim.SGD(model.parameters(),lr=1e-2,momentum=0.9)
# 定義自己的loss 
loss=(prediction[0]-labels[0]).sum()+(prediction[1]-labels[1]).sum()+(prediction[2]-labels[2]).sum()
#反向傳播
optim.zero_grad()#清除上一次的靜態(tài)梯度,防止累加。
loss.backward()#計算反向傳播梯度。
optim.step()#進(jìn)行一次權(quán)值更新。
 

此處的計算損失和權(quán)值依據(jù)輸入數(shù)據(jù)更新一次的結(jié)果,由此加入一個循環(huán),便可以實現(xiàn)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程。

3) 訓(xùn)練網(wǎng)絡(luò)

在正式進(jìn)入訓(xùn)練網(wǎng)絡(luò)之前,我們還需要了解一個叫做Batch的東西,如果我們將數(shù)據(jù)一個一個送進(jìn)去訓(xùn)練,那么神經(jīng)網(wǎng)絡(luò)訓(xùn)練的速度將是十分緩慢的,因此我們每次可以丟進(jìn)去很多數(shù)據(jù)讓神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測,通過計算總體的損失就可以讓梯度更快地下降。但訓(xùn)練數(shù)據(jù)有時又很巨大,所以就需要將整個訓(xùn)練數(shù)據(jù)打包成一批一批的進(jìn)入訓(xùn)練,并重復(fù)若干次,每訓(xùn)練整個數(shù)據(jù)一次,會經(jīng)歷若干個batch,這一過程稱為一個epoch。

所以為了使網(wǎng)絡(luò)預(yù)測結(jié)果更快地收斂,即更快地訓(xùn)練神經(jīng)網(wǎng)絡(luò),我們需要首先對數(shù)據(jù)進(jìn)行打包。

import torch.utils.data as Data
bath=50#每批次大小
loader=Data.DataLoader(#制作數(shù)據(jù)集,只能由cpu讀取
    dataset = train_data_set,
    batch_size=bath,#每批次包含數(shù)據(jù)條數(shù)
    shuffle=True,#是否打亂數(shù)據(jù)
    num_workers=1,#多少個線程搬運數(shù)據(jù)
)

然后,我們就可以進(jìn)行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練了:

pstep=2#每個多少個批次就輸出一次結(jié)果
for epoch in range(1000):
    running_loss=0.0
    for step,(inps,labs) in enumerate(loader):
        #取出數(shù)據(jù)并搬運至GPU進(jìn)行計算。
        labs=labs.to(device)
        inps=inps.to(device) 
        outputs = model(inps)#將數(shù)據(jù)輸入進(jìn)去并進(jìn)行前向傳播
        loss=loss_fn(outputs,labs)#損失函數(shù)的定義
        optimizer.zero_grad()#清楚上一次的靜態(tài)梯度,防止累加。
        loss.backward()#反向傳播更新梯度
        optimizer.step()#進(jìn)行一次優(yōu)化。
        running_loss += loss.item()#不加item()會造成內(nèi)存堆疊
        size=len(labs)*3
        correct=0
        #print("outputs:",outputs.argmax(-1),"\nlabs:",labs.argmax(-1))
        #逐個判斷計算準(zhǔn)確率
        correct+=(outputs.argmax(-1)==labs.argmax(-1)).type(torch.float).sum().item()
        if step % pstep == pstep-1:    # print every 10 mini-batches
            print('[%d, %5d] loss: %.3f correct:%.3f' %
                  (epoch + 1, step + 1, running_loss / pstep,correct/size))
            if correct/size>1:#錯誤檢查
                print("outputs:",outputs.argmax(-1),"\nlabs:",labs.argmax(-1),"\ncorrect:",correct,"\nSize:",size)
            running_loss = 0.0
#保存模型
torch.save(model.state_dict(), "model.pth")
print("Saved PyTorch Model State to model.pth")

到此這篇關(guān)于Pytorch相關(guān)知識介紹與應(yīng)用的文章就介紹到這了,更多相關(guān)Pytorch知識點內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • Django自定義YamlField實現(xiàn)過程解析

    Django自定義YamlField實現(xiàn)過程解析

    這篇文章主要介紹了Django自定義YamlField實現(xiàn)過程解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2020-11-11
  • Python利用Redis計算經(jīng)緯度距離案例

    Python利用Redis計算經(jīng)緯度距離案例

    這篇文章主要介紹了Python利用Redis計算經(jīng)緯度距離案例,文章圍繞主題展開詳細(xì)的內(nèi)容介紹,具有一定的參考價值,需要的朋友可以參考一下
    2022-09-09
  • Python類的繼承用法示例

    Python類的繼承用法示例

    這篇文章主要介紹了Python類的繼承用法,結(jié)合實例形式分析了Python類的定義、繼承等相關(guān)操作技巧,需要的朋友可以參考下
    2019-01-01
  • Pycharm如何設(shè)置默認(rèn)請求頭和切換python環(huán)境

    Pycharm如何設(shè)置默認(rèn)請求頭和切換python環(huán)境

    這篇文章主要介紹了Pycharm如何設(shè)置默認(rèn)請求頭和切換python環(huán)境問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-06-06
  • 使用Python抓取豆瓣影評數(shù)據(jù)的方法

    使用Python抓取豆瓣影評數(shù)據(jù)的方法

    今天小編就為大家分享一篇關(guān)于使用Python抓取豆瓣影評數(shù)據(jù)的方法,小編覺得內(nèi)容挺不錯的,現(xiàn)在分享給大家,具有很好的參考價值,需要的朋友一起跟隨小編來看看吧
    2018-10-10
  • jupyter如何安裝自動代碼補全提示

    jupyter如何安裝自動代碼補全提示

    這篇文章主要介紹了jupyter如何安裝自動代碼補全提示問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-06-06
  • python dir函數(shù)快速掌握用法技巧

    python dir函數(shù)快速掌握用法技巧

    在本篇文章里小編給大家整理的是一篇關(guān)于python dir函數(shù)快速掌握用法技巧,有興趣的朋友們可以學(xué)習(xí)參考下。
    2020-12-12
  • python裝飾器使用實例詳解

    python裝飾器使用實例詳解

    這篇文章主要介紹了python裝飾器使用實例詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2019-12-12
  • Python 類方法和實例方法(@classmethod),靜態(tài)方法(@staticmethod)原理與用法分析

    Python 類方法和實例方法(@classmethod),靜態(tài)方法(@staticmethod)原理與用法分析

    這篇文章主要介紹了Python 類方法和實例方法(@classmethod),靜態(tài)方法(@staticmethod),結(jié)合實例形式分析了Python 類方法和實例方法及靜態(tài)方法相關(guān)原理、用法及相關(guān)操作注意事項,需要的朋友可以參考下
    2019-09-09
  • Django細(xì)致講解多對多使用through自定義中間表方法

    Django細(xì)致講解多對多使用through自定義中間表方法

    我們在開發(fā)網(wǎng)站的時候,無可避免的需要設(shè)計實現(xiàn)網(wǎng)站的用戶系統(tǒng),我們需要實現(xiàn)包括用戶注冊、用戶登錄、用戶認(rèn)證、注銷等功能,Django作為完美主義終極框架,它默認(rèn)使用auth_user表來存儲用戶數(shù)據(jù),下面我們來看看Django多對多使用through自定義中間表
    2022-06-06

最新評論