欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

畫(huà)pytorch模型圖,以及參數(shù)計(jì)算的方法

 更新時(shí)間:2019年08月17日 13:53:03   作者:月落烏啼silence  
今天小編就為大家分享一篇畫(huà)pytorch模型圖,以及參數(shù)計(jì)算的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

剛?cè)雙ytorch的坑,代碼還沒(méi)看太懂。之前用keras用習(xí)慣了,第一次使用pytorch還有些不適應(yīng),希望廣大老司機(jī)多多指教。

首先說(shuō)說(shuō),我們?nèi)绾慰梢暬P?。在keras中就一句話,keras.summary(),或者plot_model(),就可以把模型展現(xiàn)的淋漓盡致。

但是pytorch中好像沒(méi)有這樣一個(gè)api讓我們直觀的看到模型的樣子。但是有網(wǎng)友提供了一段代碼,可以把模型畫(huà)出來(lái),對(duì)我來(lái)說(shuō)簡(jiǎn)直就是如有神助啊。

話不多說(shuō),上代碼吧。

import torch
from torch.autograd import Variable
import torch.nn as nn
from graphviz import Digraph
 
 
class CNN(nn.Module):
  def __init__(self):
    super(CNN, self).__init__()
    self.conv1 = nn.Sequential(
      nn.Conv2d(in_channels=1, out_channels=16, kernel_size=5, stride=1, padding=2),
      nn.ReLU(),
      nn.MaxPool2d(kernel_size=2)
    )
    self.conv2 = nn.Sequential(
      nn.Conv2d(in_channels=16, out_channels=32, kernel_size=5, stride=1, padding=2),
      nn.ReLU(),
      nn.MaxPool2d(kernel_size=2)
    )
    self.out = nn.Linear(32*7*7, 10)
 
  def forward(self, x):
    x = self.conv1(x)
    x = self.conv2(x)
    x = x.view(x.size(0), -1) # (batch, 32*7*7)
    out = self.out(x)
    return out
 
 
def make_dot(var, params=None):
  """ Produces Graphviz representation of PyTorch autograd graph
  Blue nodes are the Variables that require grad, orange are Tensors
  saved for backward in torch.autograd.Function
  Args:
    var: output Variable
    params: dict of (name, Variable) to add names to node that
      require grad (TODO: make optional)
  """
  if params is not None:
    assert isinstance(params.values()[0], Variable)
    param_map = {id(v): k for k, v in params.items()}
 
  node_attr = dict(style='filled',
           shape='box',
           align='left',
           fontsize='12',
           ranksep='0.1',
           height='0.2')
  dot = Digraph(node_attr=node_attr, graph_attr=dict(size="12,12"))
  seen = set()
 
  def size_to_str(size):
    return '('+(', ').join(['%d' % v for v in size])+')'
 
  def add_nodes(var):
    if var not in seen:
      if torch.is_tensor(var):
        dot.node(str(id(var)), size_to_str(var.size()), fillcolor='orange')
      elif hasattr(var, 'variable'):
        u = var.variable
        name = param_map[id(u)] if params is not None else ''
        node_name = '%s\n %s' % (name, size_to_str(u.size()))
        dot.node(str(id(var)), node_name, fillcolor='lightblue')
      else:
        dot.node(str(id(var)), str(type(var).__name__))
      seen.add(var)
      if hasattr(var, 'next_functions'):
        for u in var.next_functions:
          if u[0] is not None:
            dot.edge(str(id(u[0])), str(id(var)))
            add_nodes(u[0])
      if hasattr(var, 'saved_tensors'):
        for t in var.saved_tensors:
          dot.edge(str(id(t)), str(id(var)))
          add_nodes(t)
  add_nodes(var.grad_fn)
  return dot
 
 
if __name__ == '__main__':
  net = CNN()
  x = Variable(torch.randn(1, 1, 28, 28))
  y = net(x)
  g = make_dot(y)
  g.view()
 
  params = list(net.parameters())
  k = 0
  for i in params:
    l = 1
    print("該層的結(jié)構(gòu):" + str(list(i.size())))
    for j in i.size():
      l *= j
    print("該層參數(shù)和:" + str(l))
    k = k + l
  print("總參數(shù)數(shù)量和:" + str(k))
 

模型很簡(jiǎn)單,代碼也很簡(jiǎn)單。就是conv -> relu -> maxpool -> conv -> relu -> maxpool -> fc

大家在可視化的時(shí)候,直接復(fù)制make_dot那段代碼即可,然后需要初始化一個(gè)net,以及這個(gè)網(wǎng)絡(luò)需要的數(shù)據(jù)規(guī)模,此處就以 這段代碼為例,初始化一個(gè)模型net,準(zhǔn)備這個(gè)模型的輸入數(shù)據(jù)x,shape為(batch,channels,height,width) 然后把數(shù)據(jù)傳入模型得到輸出結(jié)果y。傳入make_dot即可得到下圖。

  net = CNN()
  x = Variable(torch.randn(1, 1, 28, 28))
  y = net(x)
  g = make_dot(y)
  g.view()

最后輸出該網(wǎng)絡(luò)的各種參數(shù)。

該層的結(jié)構(gòu):[16, 1, 5, 5]
該層參數(shù)和:400
該層的結(jié)構(gòu):[16]
該層參數(shù)和:16
該層的結(jié)構(gòu):[32, 16, 5, 5]
該層參數(shù)和:12800
該層的結(jié)構(gòu):[32]
該層參數(shù)和:32
該層的結(jié)構(gòu):[10, 1568]
該層參數(shù)和:15680
該層的結(jié)構(gòu):[10]
該層參數(shù)和:10
總參數(shù)數(shù)量和:28938

以上這篇畫(huà)pytorch模型圖,以及參數(shù)計(jì)算的方法就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • Python語(yǔ)言實(shí)現(xiàn)二分法查找

    Python語(yǔ)言實(shí)現(xiàn)二分法查找

    這篇文章主要介紹了Python語(yǔ)言實(shí)現(xiàn)二分法查找,二分法也就是二分查找,它是一種效率較高的查找方法,下文詳細(xì)介紹,需要的小伙伴可以參考一下
    2022-03-03
  • Python IDLE入門(mén)簡(jiǎn)介

    Python IDLE入門(mén)簡(jiǎn)介

    這篇文章主要介紹了Python IDLE入門(mén)簡(jiǎn)介,具有一定借鑒價(jià)值,需要的朋友可以了解下。
    2017-12-12
  • python模擬enum枚舉類(lèi)型的方法小結(jié)

    python模擬enum枚舉類(lèi)型的方法小結(jié)

    這篇文章主要介紹了python模擬enum枚舉類(lèi)型的方法,實(shí)例總結(jié)了python模擬enum枚舉類(lèi)型的相關(guān)技巧,非常具有實(shí)用價(jià)值,需要的朋友可以參考下
    2015-04-04
  • python批量替換多文件字符串問(wèn)題詳解

    python批量替換多文件字符串問(wèn)題詳解

    批量替換是我們?cè)谌粘9ぷ髦薪?jīng)常會(huì)遇到的一個(gè)問(wèn)題,下面這篇文章主要給大家介紹了關(guān)于python批量替換多文件字符串問(wèn)題的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧。
    2018-04-04
  • Python變量名詳細(xì)規(guī)則詳細(xì)變量值介紹

    Python變量名詳細(xì)規(guī)則詳細(xì)變量值介紹

    這篇文章主要介紹了Python變量名詳細(xì)規(guī)則詳細(xì)變量值,Python需要使用標(biāo)識(shí)符給變量命名,其實(shí)標(biāo)識(shí)符就是用于給程序中變量、類(lèi)、方法命名的符號(hào)(簡(jiǎn)單來(lái)說(shuō),標(biāo)識(shí)符就是合法的名稱(chēng),下面葛小編一起進(jìn)入文章里哦阿姐更多詳細(xì)內(nèi)容吧
    2022-01-01
  • 詳解Python如何利用pymysql封裝項(xiàng)目通用的連接和查詢(xún)

    詳解Python如何利用pymysql封裝項(xiàng)目通用的連接和查詢(xún)

    一個(gè)項(xiàng)目通常都需要有數(shù)據(jù)庫(kù),本文就來(lái)為大家詳細(xì)講講Python如何利用pymysql簡(jiǎn)單分裝一個(gè)通用的連接,關(guān)閉和查詢(xún),需要的可以參考一下
    2022-07-07
  • Python中JSON數(shù)據(jù)的相互轉(zhuǎn)化詳解

    Python中JSON數(shù)據(jù)的相互轉(zhuǎn)化詳解

    這篇文章主要介紹了Python中JSON數(shù)據(jù)的相互轉(zhuǎn)化詳解,JSON 是一種輕量級(jí)的數(shù)據(jù)交互格式,可以按照 JSON 指定的格式去組織和封裝數(shù)據(jù),
    JSON 本質(zhì)是一個(gè)帶有特定格式的字符串,需要的朋友可以參考下
    2023-12-12
  • 使用Python合成圖片的實(shí)現(xiàn)代碼(圖片添加個(gè)性化文本,圖片上疊加其他圖片)

    使用Python合成圖片的實(shí)現(xiàn)代碼(圖片添加個(gè)性化文本,圖片上疊加其他圖片)

    這篇文章主要介紹了使用Python合成圖片的實(shí)現(xiàn)代碼(圖片添加個(gè)性化文本,圖片上疊加其他圖片),本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2020-04-04
  • Python?dbm庫(kù)利用鍵值對(duì)存儲(chǔ)數(shù)據(jù)

    Python?dbm庫(kù)利用鍵值對(duì)存儲(chǔ)數(shù)據(jù)

    Python中的dbm模塊提供了一種輕量級(jí)的數(shù)據(jù)庫(kù)管理工具,允許開(kāi)發(fā)者使用鍵值對(duì)的形式存儲(chǔ)和檢索數(shù)據(jù),這篇文章將深入介紹dbm庫(kù)的使用,探討其基礎(chǔ)功能、高級(jí)特性以及實(shí)際應(yīng)用場(chǎng)景
    2023-12-12
  • python3編寫(xiě)ThinkPHP命令執(zhí)行Getshell的方法

    python3編寫(xiě)ThinkPHP命令執(zhí)行Getshell的方法

    這篇文章主要介紹了python3編寫(xiě)ThinkPHP命令執(zhí)行Getshell的方法,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧
    2019-02-02

最新評(píng)論