欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

PyTorch平方根報(bào)錯(cuò)的處理方案

 更新時(shí)間:2021年05月13日 14:29:32   作者:stupid_LLLee  
這篇文章主要介紹了PyTorch平方根報(bào)錯(cuò)的處理方案,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教

問題描述

初步使用PyTorch進(jìn)行平方根計(jì)算,通過range()創(chuàng)建一個(gè)張量,然后對(duì)其求平方根。

a = torch.tensor(list(range(9)))
b = torch.sqrt(a)

報(bào)出以下錯(cuò)誤:

RuntimeError: sqrt_vml_cpu not implemented for 'Long'

原因

Long類型的數(shù)據(jù)不支持log對(duì)數(shù)運(yùn)算, 為什么Tensor是Long類型? 因?yàn)閯?chuàng)建List數(shù)組時(shí)默認(rèn)使用的是int, 所以從List轉(zhuǎn)成torch.Tensor后, 數(shù)據(jù)類型變成了Long。

print(a.dtype)

torch.int64

解決方法

提前將數(shù)據(jù)類型指定為浮點(diǎn)型, 重新執(zhí)行:

b = torch.sqrt(a.to(torch.double))
print(b)

tensor([0.0000, 1.0000, 1.4142, 1.7321, 2.0000, 2.2361, 2.4495, 2.6458, 2.8284], dtype=torch.float64)

補(bǔ)充:pytorch10 pytorch常見運(yùn)算詳解

矩陣與標(biāo)量

這個(gè)是矩陣(張量)每一個(gè)元素與標(biāo)量進(jìn)行操作。

import torch
a = torch.tensor([1,2])
print(a+1)
>>> tensor([2, 3])

哈達(dá)瑪積

這個(gè)就是兩個(gè)相同尺寸的張量相乘,然后對(duì)應(yīng)元素的相乘就是這個(gè)哈達(dá)瑪積,也成為element wise。

a = torch.tensor([1,2])
b = torch.tensor([2,3])
print(a*b)
print(torch.mul(a,b))
>>> tensor([2, 6])
>>> tensor([2, 6])

這個(gè)torch.mul()和*是等價(jià)的。

當(dāng)然,除法也是類似的:

a = torch.tensor([1.,2.])
b = torch.tensor([2.,3.])
print(a/b)
print(torch.div(a/b))
>>> tensor([0.5000, 0.6667])
>>> tensor([0.5000, 0.6667])

我們可以發(fā)現(xiàn)的torch.div()其實(shí)就是/, 類似的:torch.add就是+,torch.sub()就是-,不過符號(hào)的運(yùn)算更簡單常用。

矩陣乘法

如果我們想實(shí)現(xiàn)線性代數(shù)中的矩陣相乘怎么辦呢?

這樣的操作有三個(gè)寫法:

torch.mm()

torch.matmul()

@,這個(gè)需要記憶,不然遇到這個(gè)可能會(huì)挺蒙蔽的

a = torch.tensor([[1.],[2.]])
b = torch.tensor([2.,3.]).view(1,2)
print(torch.mm(a, b))
print(torch.matmul(a, b))
print(a @ b)

這是對(duì)二維矩陣而言的,假如參與運(yùn)算的是一個(gè)多維張量,那么只有torch.matmul()可以使用。等等,多維張量怎么進(jìn)行矩陣的乘法?在多維張量中,參與矩陣運(yùn)算的其實(shí)只有后兩個(gè)維度,前面的維度其實(shí)就像是索引一樣,舉個(gè)例子:

a = torch.rand((1,2,64,32))
b = torch.rand((1,2,32,64))
print(torch.matmul(a, b).shape)
>>> torch.Size([1, 2, 64, 64])

a = torch.rand((3,2,64,32))
b = torch.rand((1,2,32,64))
print(torch.matmul(a, b).shape)
>>> torch.Size([3, 2, 64, 64])

這樣也是可以相乘的,因?yàn)檫@里涉及一個(gè)自動(dòng)傳播Broadcasting機(jī)制,這個(gè)在后面會(huì)講,這里就知道,如果這種情況下,會(huì)把b的第一維度復(fù)制3次 ,然后變成和a一樣的尺寸,進(jìn)行矩陣相乘。

冪與開方

print('冪運(yùn)算')
a = torch.tensor([1.,2.])
b = torch.tensor([2.,3.])
c1 = a ** b
c2 = torch.pow(a, b)
print(c1,c2)
>>> tensor([1., 8.]) tensor([1., 8.])

和上面一樣,不多說了。開方運(yùn)算可以用torch.sqrt(),當(dāng)然也可以用a**(0.5)。

對(duì)數(shù)運(yùn)算

在上學(xué)的時(shí)候,我們知道ln是以e為底的,但是在pytorch中,并不是這樣。

pytorch中l(wèi)og是以e自然數(shù)為底數(shù)的,然后log2和log10才是以2和10為底數(shù)的運(yùn)算。

import numpy as np
print('對(duì)數(shù)運(yùn)算')
a = torch.tensor([2,10,np.e])
print(torch.log(a))
print(torch.log2(a))
print(torch.log10(a))
>>> tensor([0.6931, 2.3026, 1.0000])
>>> tensor([1.0000, 3.3219, 1.4427])
>>> tensor([0.3010, 1.0000, 0.4343]) 

近似值運(yùn)算

.ceil() 向上取整

.floor()向下取整

.trunc()取整數(shù)

.frac()取小數(shù)

.round()四舍五入

.ceil() 向上取整.floor()向下取整.trunc()取整數(shù).frac()取小數(shù).round()四舍五入

a = torch.tensor(1.2345)
print(a.ceil())
>>>tensor(2.)
print(a.floor())
>>> tensor(1.)
print(a.trunc())
>>> tensor(1.)
print(a.frac())
>>> tensor(0.2345)
print(a.round())
>>> tensor(1.)

剪裁運(yùn)算

這個(gè)是讓一個(gè)數(shù),限制在你自己設(shè)置的一個(gè)范圍內(nèi)[min,max],小于min的話就被設(shè)置為min,大于max的話就被設(shè)置為max。這個(gè)操作在一些對(duì)抗生成網(wǎng)絡(luò)中,好像是WGAN-GP,通過強(qiáng)行限制模型的參數(shù)的值。

a = torch.rand(5)
print(a)
print(a.clamp(0.3,0.7))

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • 解決List.append()?在?Python?中不起作用的問題

    解決List.append()?在?Python?中不起作用的問題

    在?Python?中,我們通常使用?List.append()?方法向列表末尾添加元素,然而,在某些情況下,你可能會(huì)遇到?List.append()?方法不起作用的問題,本文將詳細(xì)討論這個(gè)問題并提供解決方法,需要的朋友可以參考下
    2023-06-06
  • Python實(shí)現(xiàn)批量更換指定目錄下文件擴(kuò)展名的方法

    Python實(shí)現(xiàn)批量更換指定目錄下文件擴(kuò)展名的方法

    這篇文章主要介紹了Python實(shí)現(xiàn)批量更換指定目錄下文件擴(kuò)展名的方法,結(jié)合完整實(shí)例分析了Python批量修改文件擴(kuò)展名的技巧,并對(duì)比分析了shell命令及scandir的兼容性代碼,需要的朋友可以參考下
    2016-09-09
  • Sklearn調(diào)優(yōu)之網(wǎng)格搜索與隨機(jī)搜索原理詳細(xì)分析

    Sklearn調(diào)優(yōu)之網(wǎng)格搜索與隨機(jī)搜索原理詳細(xì)分析

    這篇文章主要介紹了Sklearn調(diào)優(yōu)之網(wǎng)格搜索與隨機(jī)搜索原理,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)吧
    2023-02-02
  • Ubuntu20.04環(huán)境安裝tensorflow2的方法步驟

    Ubuntu20.04環(huán)境安裝tensorflow2的方法步驟

    這篇文章主要介紹了Ubuntu20.04環(huán)境安裝tensorflow2的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2021-01-01
  • python PIL/cv2/base64相互轉(zhuǎn)換實(shí)例

    python PIL/cv2/base64相互轉(zhuǎn)換實(shí)例

    今天小編就為大家分享一篇python PIL/cv2/base64相互轉(zhuǎn)換實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧
    2020-01-01
  • 如何利用python實(shí)現(xiàn)圖片批處理

    如何利用python實(shí)現(xiàn)圖片批處理

    這篇文章主要給大家介紹了關(guān)于如何利用python實(shí)現(xiàn)圖片批處理的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2021-03-03
  • linux系統(tǒng)下pip升級(jí)報(bào)錯(cuò)的解決方法

    linux系統(tǒng)下pip升級(jí)報(bào)錯(cuò)的解決方法

    這篇文章主要給大家介紹了關(guān)于linux系統(tǒng)下pip升級(jí)報(bào)錯(cuò)的解決方法,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2021-01-01
  • 用Python實(shí)現(xiàn)數(shù)據(jù)的透視表的方法

    用Python實(shí)現(xiàn)數(shù)據(jù)的透視表的方法

    今天小編就為大家分享一篇用Python實(shí)現(xiàn)數(shù)據(jù)的透視表的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧
    2018-11-11
  • Python+OpenCV實(shí)現(xiàn)車牌字符分割和識(shí)別

    Python+OpenCV實(shí)現(xiàn)車牌字符分割和識(shí)別

    這篇文章主要為大家詳細(xì)介紹了Python+OpenCV實(shí)現(xiàn)車牌字符分割和識(shí)別,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2018-03-03
  • Python中的迭代器和生成器詳解

    Python中的迭代器和生成器詳解

    這篇文章主要介紹了Python中的迭代器和生成器詳解,生成器表達(dá)式是用來生成函數(shù)調(diào)用時(shí)序列參數(shù)的一種迭代器寫法,生成器對(duì)象可以遍歷或轉(zhuǎn)化為列表或元組等數(shù)據(jù)結(jié)構(gòu),但不能切片,需要的朋友可以參考下
    2023-07-07

最新評(píng)論