欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Pytorch to(device)用法

 更新時間:2020年01月08日 10:17:26   作者:shaopeng568  
今天小編就為大家分享一篇Pytorch to(device)用法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧

如下所示:

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)

這兩行代碼放在讀取數(shù)據(jù)之前。

mytensor = my_tensor.to(device)

這行代碼的意思是將所有最開始讀取數(shù)據(jù)時的tensor變量copy一份到device所指定的GPU上去,之后的運算都在GPU上進行。

這句話需要寫的次數(shù)等于需要保存GPU上的tensor變量的個數(shù);一般情況下這些tensor變量都是最開始讀數(shù)據(jù)時的tensor變量,后面衍生的變量自然也都在GPU上

如果是多個GPU

在代碼中的使用方法為:

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

model = Model()

if torch.cuda.device_count() > 1:

 model = nn.DataParallel(model,device_ids=[0,1,2])

 

model.to(device)

Tensor總結

(1)Tensor 和 Numpy都是矩陣,區(qū)別是前者可以在GPU上運行,后者只能在CPU上;

(2)Tensor和Numpy互相轉化很方便,類型也比較兼容

(3)Tensor可以直接通過print顯示數(shù)據(jù)類型,而Numpy不可以

把Tensor放到GPU上運行

if torch.cuda.is_available():
 h = g.cuda()
 print(h)
torch.nn.functional
Convolution函數(shù)
torch.nn.functional.vonv1d(input,weight,bias=None,stride=1,padding=0,dilation=1,groups=1)
 
 
 
torch.nn.functional.conv2d(input,weight,bias=None,stride=1,padding=0,dilation=1,group=1)
 
parameter:
 input --輸入張量(minibatch * in_channels * iH * iW)-weights-– 過濾器張量 (out_channels, in_channels/groups, kH, kW) - bias – 可選偏置張量 (out_channels) - stride – 卷積核的步長,可以是單個數(shù)字或一個元組 (sh x sw)。默認為1 - padding – 輸入上隱含零填充??梢允菃蝹€數(shù)字或元組。 默認值:0 - groups – 將輸入分成組,in_channels應該被組數(shù)除盡
 
 
>>> # With square kernels and equal stride
>>> filters = autograd.Variable(torch.randn(8,4,3,3))
>>> inputs = autograd.Variable(torch.randn(1,4,5,5))
>>> F.conv2d(inputs, filters, padding=1)

Pytorch中使用指定的GPU

(1)直接終端中設定

CUDA_VISIBLE_DEVICES=1

(2)python代碼中設定:

import os

os.environ['CUDA_VISIBLE_DEVICE']='1'

(3)使用函數(shù)set_device

import torch

torch.cuda.set_device(id)

Pytoch中的in-place

in-place operation 在 pytorch中是指改變一個tensor的值的時候,不經過復制操作,而是在運來的內存上改變它的值。可以把它稱為原地操作符。

在pytorch中經常加后綴 “_” 來代表原地in-place operation, 比如 .add_() 或者.scatter()

python 中里面的 += *= 也是in-place operation。

下面是正常的加操作,執(zhí)行結束加操作之后x的值沒有發(fā)生變化:

import torch
x=torch.rand(2) #tensor([0.8284, 0.5539])
print(x)
y=torch.rand(2)
print(x+y)  #tensor([1.0250, 0.7891])
print(x)  #tensor([0.8284, 0.5539])

下面是原地操作,執(zhí)行之后改變了原來變量的值:

import torch
x=torch.rand(2) #tensor([0.8284, 0.5539])
print(x)
y=torch.rand(2)
x.add_(y)
print(x)  #tensor([1.1610, 1.3789])

以上這篇Pytorch to(device)用法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關文章

  • 解決import tensorflow導致jupyter內核死亡的問題

    解決import tensorflow導致jupyter內核死亡的問題

    這篇文章主要介紹了解決import tensorflow導致jupyter內核死亡的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2021-02-02
  • 實現(xiàn)python版本的按任意鍵繼續(xù)/退出

    實現(xiàn)python版本的按任意鍵繼續(xù)/退出

    本文給大家簡單介紹了在windows以及l(fā)inux下實現(xiàn)python版本的按任意鍵繼續(xù)/退出功能,非常的簡單實用,linux下稍微復雜些,有需要的小伙伴可以參考下
    2016-09-09
  • python打開url并按指定塊讀取網(wǎng)頁內容的方法

    python打開url并按指定塊讀取網(wǎng)頁內容的方法

    這篇文章主要介紹了python打開url并按指定塊讀取網(wǎng)頁內容的方法,涉及Python操作URL及網(wǎng)頁內容的技巧,非常具有實用價值,需要的朋友可以參考下
    2015-04-04
  • 使用python繪制二維圖形示例

    使用python繪制二維圖形示例

    今天小編就為大家分享一篇使用python繪制二維圖形示例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-11-11
  • Python如何向IP地址發(fā)送字符串

    Python如何向IP地址發(fā)送字符串

    在Python中,向IP地址發(fā)送字符串通常意味著你需要通過某種協(xié)議來實現(xiàn)通信,最常見的協(xié)議包括TCP和UDP,這篇文章主要介紹了Python向IP地址發(fā)送字符串的示例代碼,需要的朋友可以參考下
    2024-08-08
  • Python字典底層實現(xiàn)原理詳解

    Python字典底層實現(xiàn)原理詳解

    今天小編就為大家分享一篇Python字典底層實現(xiàn)原理詳解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-12-12
  • 深入解讀Python解析XML的幾種方式

    深入解讀Python解析XML的幾種方式

    這篇文章主要為大家詳細介紹了深入解讀Python解析XML的幾種方式,以ElementTree模塊為例,演示具體使用方法和場景,感興趣的小伙伴們可以參考一下
    2016-02-02
  • Python3 基礎語法詳解

    Python3 基礎語法詳解

    在本篇文章里小編給大家分享的是一篇關于Python3基礎語法知識點總結內容,有興趣的朋友們可以學習下,希望能夠給你帶來幫助
    2021-10-10
  • Python?實現(xiàn)循環(huán)最快方式(for、while?等速度對比)

    Python?實現(xiàn)循環(huán)最快方式(for、while?等速度對比)

    這篇文章主要介紹了Python?利用for、while?實現(xiàn)循環(huán)最快方式,文章主要對for、while?等速度對比詳細介紹,具有一定的參考價值?,需要的小伙伴可以參考一下
    2022-01-01
  • python用opencv完成圖像分割并進行目標物的提取

    python用opencv完成圖像分割并進行目標物的提取

    這篇文章主要介紹了python用opencv完成圖像分割并進行目標物的提取,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2020-05-05

最新評論