Pytorch實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的分類(lèi)方式
本文用于利用Pytorch實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的分類(lèi)?。?!
1.訓(xùn)練神經(jīng)網(wǎng)絡(luò)分類(lèi)模型
import torch from torch.autograd import Variable import matplotlib.pyplot as plt import torch.nn.functional as F import torch.utils.data as Data torch.manual_seed(1)#設(shè)置隨機(jī)種子,使得每次生成的隨機(jī)數(shù)是確定的 BATCH_SIZE = 5#設(shè)置batch size #1.制作兩類(lèi)數(shù)據(jù) n_data = torch.ones( 1000,2 ) x0 = torch.normal( 1.5*n_data, 1 )#均值為2 標(biāo)準(zhǔn)差為1 y0 = torch.zeros( 1000 ) x1 = torch.normal( -1.5*n_data,1 )#均值為-2 標(biāo)準(zhǔn)差為1 y1 = torch.ones( 1000 ) print("數(shù)據(jù)集維度:",x0.size(),y0.size()) #合并訓(xùn)練數(shù)據(jù)集,并轉(zhuǎn)化數(shù)據(jù)類(lèi)型為浮點(diǎn)型或整型 x = torch.cat( (x0,x1),0 ).type( torch.FloatTensor ) y = torch.cat( (y0,y1) ).type( torch.LongTensor ) print( "合并后的數(shù)據(jù)集維度:",x.data.size(), y.data.size() ) #當(dāng)不使用batch size訓(xùn)練數(shù)據(jù)時(shí),將Tensor放入Variable中 # x,y = Variable(x), Variable(y) #繪制訓(xùn)練數(shù)據(jù) # plt.scatter( x.data.numpy()[:,0], x.data.numpy()[:,1], c=y.data.numpy()) # plt.show() #當(dāng)使用batch size訓(xùn)練數(shù)據(jù)時(shí),首先將tensor轉(zhuǎn)化為Dataset格式 torch_dataset = Data.TensorDataset(x, y) #將dataset放入DataLoader中 loader = Data.DataLoader( dataset=torch_dataset, batch_size = BATCH_SIZE,#設(shè)置batch size shuffle=True,#打亂數(shù)據(jù) num_workers=2#多線(xiàn)程讀取數(shù)據(jù) ) #2.前向傳播過(guò)程 class Net(torch.nn.Module):#繼承基類(lèi)Module的屬性和方法 def __init__(self, input, hidden, output): super(Net, self).__init__()#繼承__init__功能 self.hidden = torch.nn.Linear(input, hidden)#隱層的線(xiàn)性輸出 self.out = torch.nn.Linear(hidden, output)#輸出層線(xiàn)性輸出 def forward(self, x): x = F.relu(self.hidden(x)) x = self.out(x) return x # 訓(xùn)練模型的同時(shí)保存網(wǎng)絡(luò)模型參數(shù) def save(): #3.利用自定義的前向傳播過(guò)程設(shè)計(jì)網(wǎng)絡(luò),設(shè)置各層神經(jīng)元數(shù)量 # net = Net(input=2, hidden=10, output=2) # print("神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu):",net) #3.快速搭建神經(jīng)網(wǎng)絡(luò)模型 net = torch.nn.Sequential( torch.nn.Linear(2,10),#指定輸入層和隱層結(jié)點(diǎn),獲得隱層線(xiàn)性輸出 torch.nn.ReLU(),#隱層非線(xiàn)性化 torch.nn.Linear(10,2)#指定隱層和輸出層結(jié)點(diǎn),獲得輸出層線(xiàn)性輸出 ) #4.設(shè)置優(yōu)化算法、學(xué)習(xí)率 # optimizer = torch.optim.SGD( net.parameters(), lr=0.2 ) # optimizer = torch.optim.SGD( net.parameters(), lr=0.2, momentum=0.8 ) # optimizer = torch.optim.RMSprop( net.parameters(), lr=0.2, alpha=0.9 ) optimizer = torch.optim.Adam( net.parameters(), lr=0.2, betas=(0.9,0.99) ) #5.設(shè)置損失函數(shù) loss_func = torch.nn.CrossEntropyLoss() plt.ion()#打開(kāi)畫(huà)布,可視化更新過(guò)程 #6.迭代訓(xùn)練 for epoch in range(2): for step, (batch_x, batch_y) in enumerate(loader): out = net(batch_x)#輸入訓(xùn)練集,獲得當(dāng)前迭代輸出值 loss = loss_func(out, batch_y)#獲得當(dāng)前迭代的損失 optimizer.zero_grad()#清除上次迭代的更新梯度 loss.backward()#反向傳播 optimizer.step()#更新權(quán)重 if step%200==0: plt.cla()#清空之前畫(huà)布上的內(nèi)容 entire_out = net(x)#測(cè)試整個(gè)訓(xùn)練集 #獲得當(dāng)前softmax層最大概率對(duì)應(yīng)的索引值 pred = torch.max(F.softmax(entire_out), 1)[1] #將二維壓縮為一維 pred_y = pred.data.numpy().squeeze() label_y = y.data.numpy() plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn') accuracy = sum(pred_y == label_y)/y.size() print("第 %d 個(gè)epoch,第 %d 次迭代,準(zhǔn)確率為 %.2f"%(epoch+1, step/200+1, accuracy)) #在指定位置添加文本 plt.text(1.5, -4, 'Accuracy=%.2f' % accuracy, fontdict={'size': 15, 'color': 'red'}) plt.pause(2)#圖像顯示時(shí)間 #7.保存模型結(jié)構(gòu)和參數(shù) torch.save(net, 'net.pkl') #7.只保存模型參數(shù) # torch.save(net.state_dict(), 'net_param.pkl') plt.ioff()#關(guān)閉畫(huà)布 plt.show() if __name__ == '__main__': save()
2. 讀取已訓(xùn)練好的模型測(cè)試數(shù)據(jù)
import torch from torch.autograd import Variable import matplotlib.pyplot as plt import torch.nn.functional as F #制作數(shù)據(jù) n_data = torch.ones( 100,2 ) x0 = torch.normal( 1.5*n_data, 1 )#均值為2 標(biāo)準(zhǔn)差為1 y0 = torch.zeros( 100 ) x1 = torch.normal( -1.5*n_data,1 )#均值為-2 標(biāo)準(zhǔn)差為1 y1 = torch.ones( 100 ) print("數(shù)據(jù)集維度:",x0.size(),y0.size()) #合并訓(xùn)練數(shù)據(jù)集,并轉(zhuǎn)化數(shù)據(jù)類(lèi)型為浮點(diǎn)型或整型 x = torch.cat( (x0,x1),0 ).type( torch.FloatTensor ) y = torch.cat( (y0,y1) ).type( torch.LongTensor ) print( "合并后的數(shù)據(jù)集維度:",x.data.size(), y.data.size() ) #將Tensor放入Variable中 x,y = Variable(x), Variable(y) #載入模型和參數(shù) def restore_net(): net = torch.load('net.pkl') #獲得載入模型的預(yù)測(cè)輸出 pred = net(x) # 獲得當(dāng)前softmax層最大概率對(duì)應(yīng)的索引值 pred = torch.max(F.softmax(pred), 1)[1] # 將二維壓縮為一維 pred_y = pred.data.numpy().squeeze() label_y = y.data.numpy() accuracy = sum(pred_y == label_y) / y.size() print("準(zhǔn)確率為:",accuracy) plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn') plt.show() #僅載入模型參數(shù),需要先創(chuàng)建網(wǎng)絡(luò)模型 def restore_param(): net = torch.nn.Sequential( torch.nn.Linear(2,10),#指定輸入層和隱層結(jié)點(diǎn),獲得隱層線(xiàn)性輸出 torch.nn.ReLU(),#隱層非線(xiàn)性化 torch.nn.Linear(10,2)#指定隱層和輸出層結(jié)點(diǎn),獲得輸出層線(xiàn)性輸出 ) net.load_state_dict( torch.load('net_param.pkl') ) #獲得載入模型的預(yù)測(cè)輸出 pred = net(x) # 獲得當(dāng)前softmax層最大概率對(duì)應(yīng)的索引值 pred = torch.max(F.softmax(pred), 1)[1] # 將二維壓縮為一維 pred_y = pred.data.numpy().squeeze() label_y = y.data.numpy() accuracy = sum(pred_y == label_y) / y.size() print("準(zhǔn)確率為:",accuracy) plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn') plt.show() if __name__ =='__main__': # restore_net() restore_param()
以上這篇Pytorch實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的分類(lèi)方式就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
pytorch Dataset,DataLoader產(chǎn)生自定義的訓(xùn)練數(shù)據(jù)案例
這篇文章主要介紹了pytorch Dataset, DataLoader產(chǎn)生自定義的訓(xùn)練數(shù)據(jù)案例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-03-03在jupyter notebook中使用pytorch的方法
這篇文章主要介紹了在jupyter notebook中使用pytorch的方法,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2022-09-09ubuntu系統(tǒng)下使用pm2設(shè)置nodejs開(kāi)機(jī)自啟動(dòng)的方法
今天小編就為大家分享一篇ubuntu系統(tǒng)下使用pm2設(shè)置nodejs開(kāi)機(jī)自啟動(dòng)的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-05-05數(shù)據(jù)驅(qū)動(dòng)測(cè)試DDT之Selenium讀取Excel文件
這篇文章主要為大家介紹了數(shù)據(jù)驅(qū)動(dòng)測(cè)試DDT之Selenium讀取Excel文件,2021-11-11selenium與xpath之獲取指定位置的元素的實(shí)現(xiàn)
這篇文章主要介紹了selenium與xpath之獲取指定位置的元素的實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2021-01-01Pytest執(zhí)行unittest TestSuite(測(cè)試套件)的實(shí)現(xiàn)方法
TestSuite一直是unittest的靈活與精髓之處,在繁多的測(cè)試用例中,可以任意挑選和組合各種用例集,這篇文章主要介紹了Pytest執(zhí)行unittest TestSuite(測(cè)試套件)的實(shí)現(xiàn)方法,需要的朋友可以參考下2021-08-08詳解python實(shí)現(xiàn)線(xiàn)程安全的單例模式
這篇文章主要介紹了python實(shí)現(xiàn)線(xiàn)程安全的單例模式,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-03-03