pytorch GAN生成對抗網(wǎng)絡實例
我就廢話不多說了,直接上代碼吧!
import torch import torch.nn as nn from torch.autograd import Variable import numpy as np import matplotlib.pyplot as plt torch.manual_seed(1) np.random.seed(1) BATCH_SIZE = 64 LR_G = 0.0001 LR_D = 0.0001 N_IDEAS = 5 ART_COMPONENTS = 15 PAINT_POINTS = np.vstack([np.linspace(-1,1,ART_COMPONENTS) for _ in range(BATCH_SIZE)]) def artist_works(): a = np.random.uniform(1,2,size=BATCH_SIZE)[:,np.newaxis] paintings = a*np.power(PAINT_POINTS,2) + (a-1) paintings = torch.from_numpy(paintings).float() return Variable(paintings) G = nn.Sequential( nn.Linear(N_IDEAS,128), nn.ReLU(), nn.Linear(128,ART_COMPONENTS), ) D = nn.Sequential( nn.Linear(ART_COMPONENTS,128), nn.ReLU(), nn.Linear(128,1), nn.Sigmoid(), ) opt_D = torch.optim.Adam(D.parameters(),lr=LR_D) opt_G = torch.optim.Adam(G.parameters(),lr=LR_G) plt.ion() for step in range(10000): artist_paintings = artist_works() G_ideas = Variable(torch.randn(BATCH_SIZE,N_IDEAS)) G_paintings = G(G_ideas) prob_artist0 = D(artist_paintings) prob_artist1 = D(G_paintings) D_loss = - torch.mean(torch.log(prob_artist0) + torch.log(1-prob_artist1)) G_loss = torch.mean(torch.log(1 - prob_artist1)) opt_D.zero_grad() D_loss.backward(retain_variables=True) opt_D.step() opt_G.zero_grad() G_loss.backward() opt_G.step() if step % 50 == 0: plt.cla() plt.plot(PAINT_POINTS[0],G_paintings.data.numpy()[0],c='#4ad631',lw=3,label='Generated painting',) plt.plot(PAINT_POINTS[0],2 * np.power(PAINT_POINTS[0], 2) + 1,c='#74BCFF',lw=3,label='upper bound',) plt.plot(PAINT_POINTS[0],1 * np.power(PAINT_POINTS[0], 2) + 0,c='#FF9359',lw=3,label='lower bound',) plt.text(-.5,2.3,'D accuracy=%.2f (0.5 for D to converge)' % prob_artist0.data.numpy().mean(), fontdict={'size':15}) plt.text(-.5, 2, 'D score= %.2f (-1.38 for G to converge)' % -D_loss.data.numpy(), fontdict={'size': 15}) plt.ylim((0,3)) plt.legend(loc='upper right', fontsize=12) plt.draw() plt.pause(0.01) plt.ioff() plt.show()
以上這篇pytorch GAN生成對抗網(wǎng)絡實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
淺談Scrapy網(wǎng)絡爬蟲框架的工作原理和數(shù)據(jù)采集
在python爬蟲中:requests + selenium 可以解決目前90%的爬蟲需求,難道scrapy 是解決剩下的10%的嗎?顯然不是。scrapy框架是為了讓我們的爬蟲更強大、更高效。接下來我們一起學習一下它吧。2019-02-02Python requests模塊基礎使用方法實例及高級應用(自動登陸,抓取網(wǎng)頁源碼)實例詳解
這篇文章主要介紹了Python requests模塊基礎使用方法實例及高級應用(自動登陸,抓取網(wǎng)頁源碼,Cookies)實例詳解,需要的朋友可以參考下2020-02-02Python中實現(xiàn)結構相似的函數(shù)調用方法
這篇文章主要介紹了Python中實現(xiàn)結構相似的函數(shù)調用方法,本文講解使用dict和lambda結合實現(xiàn)結構相似的函數(shù)調用,給出了不帶參數(shù)和帶參數(shù)的實例,需要的朋友可以參考下2015-03-03python基于urllib實現(xiàn)按照百度音樂分類下載mp3的方法
這篇文章主要介紹了python基于urllib實現(xiàn)按照百度音樂分類下載mp3的方法,涉及Python使用urllib模塊操作頁面元素的相關技巧,需要的朋友可以參考下2015-05-05pytorch下使用LSTM神經(jīng)網(wǎng)絡寫詩實例
今天小編就為大家分享一篇pytorch下使用LSTM神經(jīng)網(wǎng)絡寫詩實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01PyQt中實現(xiàn)自定義工具提示ToolTip的方法詳解
這篇文章主要為大家詳細介紹了PyQt中實現(xiàn)自定義工具提示ToolTip的方法詳解,文中的示例代碼講解詳細,對我們學習有一定幫助,需要的可以參考一下2022-05-05Python中的Numeric包和Numarray包使用教程
這篇文章主要介紹了Python中的Numeric包和Numarray包使用教程,來自IBM官方網(wǎng)站上的技術文檔,需要的朋友可以參考下2015-04-04Keras在mnist上的CNN實踐,并且自定義loss函數(shù)曲線圖操作
這篇文章主要介紹了Keras在mnist上的CNN實踐,并且自定義loss函數(shù)曲線圖操作,具有很好的參考價值,希望對大家有所幫助。2021-05-05