Pytorch創(chuàng)建隨機值張量的過程詳解
2-Pytorch創(chuàng)建隨機值張量
1 導入必備庫
import torch import numpy as np
2 使用torch.rand()創(chuàng)建0-1均勻分布的隨機數(shù)
t = torch.rand(2,3) print(t)
輸出:
tensor([[0.1452, 0.1435, 0.2124],
[0.6646, 0.5232, 0.1572]])
3 使用torch.randn()創(chuàng)建正態(tài)分布的隨機數(shù)
t = torch.randn(2,3) print(t)
輸出:
tensor([[-0.5325, -0.4938, 0.6301],
[-0.6313, -0.1412, 2.2926]])
4 使用torch.zeros()創(chuàng)建全0張量
t = torch.zeros(3) print(t) print(t.dtype)
輸出:
tensor([0., 0., 0.])
torch.float32
5 使用torch.ones()創(chuàng)建全1張量
t = torch.ones(3) print(t) print(t.dtype)
輸出:
tensor([1., 1., 1.])
torch.float32
6 從另一個張量創(chuàng)建新的張量
x = torch.zeros_like(t) print(x) x = torch.rand_like(t) print(x)
輸出:
tensor([0., 0., 0.])
tensor([0.6516, 0.5740, 0.6379])
7 張量的屬性:
tensor.shape返回張量的形狀,與tensor.size()方法等價,tensor.dtype返回當前張量的類型
t = torch.ones(2,3,dtype= torch.float64) print(t.shape) print(t.size()) print(t.size(1)) # 返回第二維度大小 print(t.dtype) print(t.device)
輸出:
torch.Size([2, 3])
torch.Size([2, 3])
3
torch.float64
cpu
8 將張量移動到顯存,使用tensor.to()方法將張量移動到GPU上
# 如果GPU可用,將張量移動到顯存 # 設置使用哪塊芯片,多塊GPU使用逗號隔開 # import os # os.environ['CUDA_VISIBLE_DEVICES'] = '0' # 多塊GPU設置,如:'0,1,2' if torch.cuda.is_available(): t = t.to('cuda') print(t.device)
輸出:
cuda:0
9 更穩(wěn)妥的移動顯存方法,無論是否有GPU都能保證運行
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') # 啟動cuda print("Using {} device".format(device)) # 打印當前設備 t = t.to(device) print(t.device)
輸出:
Using cuda device
cuda:0
到此這篇關(guān)于Pytorch創(chuàng)建隨機值張量的文章就介紹到這了,更多相關(guān)Pytorch隨機值張量內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python進程的狀態(tài)、創(chuàng)建及使用方法詳解
這篇文章主要介紹了python進程的狀態(tài)、創(chuàng)建及使用方法,結(jié)合實例形式詳細分析了Python進程的概念、原理、工作狀態(tài)、創(chuàng)建以及使用方法,需要的朋友可以參考下2019-12-12Pytorch pth 格式轉(zhuǎn)ONNX 格式的詳細過程
PyTorch 訓練的模型,需要在Jetson nano 上部署,jetson 原生提供了TensorRT 的支持,所以一個比較好的方式是把它轉(zhuǎn)換成ONNX 格式,然后在通過ONNX 轉(zhuǎn)換成TensorRT 格式,這篇文章主要介紹了Pytorch pth 格式轉(zhuǎn)ONNX 格式,需要的朋友可以參考下2023-05-05通過LyScript實現(xiàn)從文本中讀寫ShellCode
LyScript 插件通過配合內(nèi)存讀寫,可實現(xiàn)對特定位置的ShellCode代碼的導出。本文將利用這一特性實現(xiàn)從文本中讀寫ShellCode,感興趣的可以了解一下2022-08-08快速解釋如何使用pandas的inplace參數(shù)的使用
這篇文章主要介紹了快速解釋如何使用pandas的inplace參數(shù)的使用,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-07-07