Pytorch相關(guān)知識介紹與應(yīng)用
前言
目前機器學(xué)習(xí)框架有兩大方向,Pytorch和Tensorflow 2。對于機器學(xué)習(xí)的小白的我來說,直觀的感受是Tensorflow的框架更加傻瓜式,在這個框架下只需要定義神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、輸入和輸出,然后直接使用其框架下的各種框架函數(shù)即可。而對于Pytorch來說,則使用者能操作、定義的細(xì)節(jié)更多,但與此同時使用難度也會更高。
通過各種資料也顯示,在學(xué)術(shù)研究范圍內(nèi),越來越多的人使用Pytorch,其實Tensorflow也不錯,但對于普通小白來說入手更快,應(yīng)用也更快。本著全面發(fā)展,多嘗試的心態(tài),開始Pytorch學(xué)習(xí)。
小編將從自身的理解習(xí)慣開始不斷更新這篇博文:
1.Pytorch簡介
Pytorch就是一個神經(jīng)網(wǎng)絡(luò)框架,使用Pytorch可以跳過很多不必要的底層工作,很多通用的方法、數(shù)據(jù)結(jié)構(gòu)都已經(jīng)實現(xiàn)供我們調(diào)用,從而可以讓我們將精力集中在改進(jìn)數(shù)據(jù)質(zhì)量、網(wǎng)絡(luò)結(jié)構(gòu)和評估方法上去。
使用和訓(xùn)練神經(jīng)網(wǎng)絡(luò)從思考順序上來說無非就三個階段:
1)構(gòu)思神經(jīng)網(wǎng)絡(luò)的輸入、輸出和網(wǎng)絡(luò)結(jié)構(gòu),其中輸入輸出非常關(guān)鍵。
2)訓(xùn)練數(shù)據(jù)集(粗糙的原始數(shù)據(jù))。
3)如何將訓(xùn)練數(shù)據(jù)集轉(zhuǎn)換成神經(jīng)網(wǎng)絡(luò)能夠接受并且能夠正確輸出的結(jié)構(gòu)。
4)訓(xùn)練神經(jīng)網(wǎng)絡(luò)并進(jìn)行預(yù)測。
2.Pytorch定義神經(jīng)網(wǎng)絡(luò)的輸入輸出和結(jié)構(gòu)
使用Pytorch定義神經(jīng)網(wǎng)絡(luò)非常通用的格式:
class NN(nn.Module): def __init__(self): super(NN,self).__init__()#繼承tOrch中已經(jīng)寫好的類,包含神經(jīng)網(wǎng)絡(luò)其余所有通用必要方法函數(shù)。 self.flatten=nn.Flatten()#加入展平函數(shù)。 self.net=nn.Sequential(#調(diào)用Sequential方法定義神經(jīng)網(wǎng)絡(luò)。 nn.Linear(100*3,100*3), nn.ReLU(), nn.Linear(100*3,100*3), nn.ReLU(), nn.Linear(100*3,27) ) def forward(self,x):#自定義神經(jīng)網(wǎng)絡(luò)的前向傳播函數(shù),本文使用了正常的前向傳播函數(shù),但最終的結(jié)果給出三個輸出。 result=self.net(x) r1=result[:9] r2=result[9:18] r3=result[18:27] return [r1,r2,r3]
到這里基本上已經(jīng)定義了自己的神經(jīng)網(wǎng)絡(luò)了,輸入為100*3=200個數(shù)據(jù)、輸出為27個數(shù)據(jù)。那么問題來了,怎么把數(shù)據(jù)輸入進(jìn)去呢?
3.Pytorch神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)格式-tensor
對于編程小白、機器學(xué)習(xí)小白的我或者大家來說,tensor的直接定義不好理解。
tensor表面上只進(jìn)行了存儲,但實際上它包含了很多中方法,直接使用tensor.Method()調(diào)用相關(guān)方法即可,而省去了自己來定義函數(shù),再操作數(shù)據(jù)結(jié)構(gòu)。并且在Pytorch進(jìn)行訓(xùn)練時,也會在其內(nèi)部調(diào)用這些方法,所以就需要我們使用這些數(shù)據(jù)結(jié)構(gòu)來作為Pytorch神經(jīng)網(wǎng)的輸入,并且神經(jīng)網(wǎng)絡(luò)的輸出也是tensor形式,numpy array 和 list 和 tensor 的轉(zhuǎn)換其實就是數(shù)據(jù)相同,但集成了不同方法的數(shù)據(jù)結(jié)構(gòu)。
那么下面就是輸入數(shù)據(jù)的定義。train_data和labels都是我們使用python方法寫出的list。
#train_data、labels都是list,經(jīng)過list->ndarray->tensor的轉(zhuǎn)換過程。 train_data=torch.tensor(np.array(train_data)).to(torch.float32).to(device) labels=torch.tensor(np.array(labels)).to(torch.float32).to(device)
4.神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測
使用神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測(前向傳播)、計算損失函數(shù)、反向傳播更新梯度
1)進(jìn)行前向傳播
#train_data[0]即為訓(xùn)練數(shù)據(jù)的第一條輸入數(shù)據(jù)。 prediction=model(train_data[0])
2)計算損失
#定義優(yōu)化器 optim=torch.optim.SGD(model.parameters(),lr=1e-2,momentum=0.9) # 定義自己的loss loss=(prediction[0]-labels[0]).sum()+(prediction[1]-labels[1]).sum()+(prediction[2]-labels[2]).sum() #反向傳播 optim.zero_grad()#清除上一次的靜態(tài)梯度,防止累加。 loss.backward()#計算反向傳播梯度。 optim.step()#進(jìn)行一次權(quán)值更新。
此處的計算損失和權(quán)值依據(jù)輸入數(shù)據(jù)更新一次的結(jié)果,由此加入一個循環(huán),便可以實現(xiàn)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程。
3) 訓(xùn)練網(wǎng)絡(luò)
在正式進(jìn)入訓(xùn)練網(wǎng)絡(luò)之前,我們還需要了解一個叫做Batch的東西,如果我們將數(shù)據(jù)一個一個送進(jìn)去訓(xùn)練,那么神經(jīng)網(wǎng)絡(luò)訓(xùn)練的速度將是十分緩慢的,因此我們每次可以丟進(jìn)去很多數(shù)據(jù)讓神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測,通過計算總體的損失就可以讓梯度更快地下降。但訓(xùn)練數(shù)據(jù)有時又很巨大,所以就需要將整個訓(xùn)練數(shù)據(jù)打包成一批一批的進(jìn)入訓(xùn)練,并重復(fù)若干次,每訓(xùn)練整個數(shù)據(jù)一次,會經(jīng)歷若干個batch,這一過程稱為一個epoch。
所以為了使網(wǎng)絡(luò)預(yù)測結(jié)果更快地收斂,即更快地訓(xùn)練神經(jīng)網(wǎng)絡(luò),我們需要首先對數(shù)據(jù)進(jìn)行打包。
import torch.utils.data as Data bath=50#每批次大小 loader=Data.DataLoader(#制作數(shù)據(jù)集,只能由cpu讀取 dataset = train_data_set, batch_size=bath,#每批次包含數(shù)據(jù)條數(shù) shuffle=True,#是否打亂數(shù)據(jù) num_workers=1,#多少個線程搬運數(shù)據(jù) )
然后,我們就可以進(jìn)行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練了:
pstep=2#每個多少個批次就輸出一次結(jié)果 for epoch in range(1000): running_loss=0.0 for step,(inps,labs) in enumerate(loader): #取出數(shù)據(jù)并搬運至GPU進(jìn)行計算。 labs=labs.to(device) inps=inps.to(device) outputs = model(inps)#將數(shù)據(jù)輸入進(jìn)去并進(jìn)行前向傳播 loss=loss_fn(outputs,labs)#損失函數(shù)的定義 optimizer.zero_grad()#清楚上一次的靜態(tài)梯度,防止累加。 loss.backward()#反向傳播更新梯度 optimizer.step()#進(jìn)行一次優(yōu)化。 running_loss += loss.item()#不加item()會造成內(nèi)存堆疊 size=len(labs)*3 correct=0 #print("outputs:",outputs.argmax(-1),"\nlabs:",labs.argmax(-1)) #逐個判斷計算準(zhǔn)確率 correct+=(outputs.argmax(-1)==labs.argmax(-1)).type(torch.float).sum().item() if step % pstep == pstep-1: # print every 10 mini-batches print('[%d, %5d] loss: %.3f correct:%.3f' % (epoch + 1, step + 1, running_loss / pstep,correct/size)) if correct/size>1:#錯誤檢查 print("outputs:",outputs.argmax(-1),"\nlabs:",labs.argmax(-1),"\ncorrect:",correct,"\nSize:",size) running_loss = 0.0 #保存模型 torch.save(model.state_dict(), "model.pth") print("Saved PyTorch Model State to model.pth")
到此這篇關(guān)于Pytorch相關(guān)知識介紹與應(yīng)用的文章就介紹到這了,更多相關(guān)Pytorch知識點內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- python機器學(xué)習(xí)pytorch?張量基礎(chǔ)教程
- python機器學(xué)習(xí)pytorch自定義數(shù)據(jù)加載器
- Python+pytorch實現(xiàn)天氣識別
- Python+Pytorch實戰(zhàn)之彩色圖片識別
- Python使用pytorch動手實現(xiàn)LSTM模塊
- python神經(jīng)網(wǎng)絡(luò)pytorch中BN運算操作自實現(xiàn)
- python神經(jīng)網(wǎng)絡(luò)Pytorch中Tensorboard函數(shù)使用
- python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)利用PyTorch進(jìn)行回歸運算
相關(guān)文章
Django自定義YamlField實現(xiàn)過程解析
這篇文章主要介紹了Django自定義YamlField實現(xiàn)過程解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-11-11Pycharm如何設(shè)置默認(rèn)請求頭和切換python環(huán)境
這篇文章主要介紹了Pycharm如何設(shè)置默認(rèn)請求頭和切換python環(huán)境問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-06-06Python 類方法和實例方法(@classmethod),靜態(tài)方法(@staticmethod)原理與用法分析
這篇文章主要介紹了Python 類方法和實例方法(@classmethod),靜態(tài)方法(@staticmethod),結(jié)合實例形式分析了Python 類方法和實例方法及靜態(tài)方法相關(guān)原理、用法及相關(guān)操作注意事項,需要的朋友可以參考下2019-09-09Django細(xì)致講解多對多使用through自定義中間表方法
我們在開發(fā)網(wǎng)站的時候,無可避免的需要設(shè)計實現(xiàn)網(wǎng)站的用戶系統(tǒng),我們需要實現(xiàn)包括用戶注冊、用戶登錄、用戶認(rèn)證、注銷等功能,Django作為完美主義終極框架,它默認(rèn)使用auth_user表來存儲用戶數(shù)據(jù),下面我們來看看Django多對多使用through自定義中間表2022-06-06