pytorch中的transforms.ToTensor和transforms.Normalize的實現(xiàn)
transforms.ToTensor
最近看pytorch時,遇到了對圖像數(shù)據(jù)的歸一化,如下圖所示:
該怎么理解這串代碼呢?我們一句一句的來看,先看transforms.ToTensor()
,我們可以先轉(zhuǎn)到官方給的定義,如下圖所示:
大概的意思就是說,transforms.ToTensor()
可以將PIL和numpy格式的數(shù)據(jù)從[0,255]范圍轉(zhuǎn)換到[0,1] ,具體做法其實就是將原始數(shù)據(jù)除以255。另外原始數(shù)據(jù)的shape是(H x W x C),通過transforms.ToTensor()
后shape會變?yōu)椋– x H x W)。這樣說我覺得大家應(yīng)該也是能理解的,這部分并不難,但想著還是用一些例子來加深大家的映像??????
先導(dǎo)入一些包
import cv2 import numpy as np import torch from torchvision import transforms
定義一個數(shù)組模型圖片,注意數(shù)組數(shù)據(jù)類型需要時np.uint8【官方圖示中給出】
data = np.array([ [[1,1,1],[1,1,1],[1,1,1],[1,1,1],[1,1,1]], [[2,2,2],[2,2,2],[2,2,2],[2,2,2],[2,2,2]], [[3,3,3],[3,3,3],[3,3,3],[3,3,3],[3,3,3]], [[4,4,4],[4,4,4],[4,4,4],[4,4,4],[4,4,4]], [[5,5,5],[5,5,5],[5,5,5],[5,5,5],[5,5,5]] ],dtype='uint8')
這是可以看看data的shape,注意現(xiàn)在為(W H C)。
使用transforms.ToTensor()
將data進(jìn)行轉(zhuǎn)換
data = transforms.ToTensor()(data)
這時候我們來看看data中的數(shù)據(jù)及shape。
? 很明顯,數(shù)據(jù)現(xiàn)在都映射到了[0, 1]之間,并且data的shape發(fā)生了變換。
**注意:不知道大家是如何理解三維數(shù)組的,這里提供我的一個方法。**??????
??原始的data的shape為(5,5,3),則其表示有5個(5 , 3)的二維數(shù)組,即我們把最外層的[]去掉就得到了5個五行三列的數(shù)據(jù)。
??同樣的,變換后data的shape為(3,5,5),則其表示有3個(5 , 5)的二維數(shù)組,即我們把最外層的[]去掉就得到了3個五行五列的數(shù)據(jù)。
transforms.Normalize??
相信通過前面的敘述大家應(yīng)該對transforms.ToTensor
有了一定的了解,下面將來說說這個transforms.Normalize
??????同樣的,我們先給出官方的定義,如下圖所示:
可以看到這個函數(shù)的輸出output[channel] = (input[channel] - mean[channel]) / std[channel]
。這里[channel]的意思是指對特征圖的每個通道都進(jìn)行這樣的操作?!緈ean為均值,std為標(biāo)準(zhǔn)差】接下來我們看第一張圖片中的代碼,即
這里的第一個參數(shù)(0.5,0.5,0.5)表示每個通道的均值都是0.5,第二個參數(shù)(0.5,0.5,0.5)表示每個通道的方差都為0.5?!疽驗閳D像一般是三個通道,所以這里的向量都是1x3的??????】有了這兩個參數(shù)后,當(dāng)我們傳入一個圖像時,就會按照上面的公式對圖像進(jìn)行變換?!?strong>注意:這里說圖像其實也不夠準(zhǔn)確,因為這個函數(shù)傳入的格式不能為PIL Image,我們應(yīng)該先將其轉(zhuǎn)換為Tensor格式】
說了這么多,那么這個函數(shù)到底有什么用呢?我們通過前面的ToTensor已經(jīng)將數(shù)據(jù)歸一化到了0-1之間,現(xiàn)在又接上了一個Normalize函數(shù)有什么用呢?其實Normalize函數(shù)做的是將數(shù)據(jù)變換到了[-1,1]之間。之前的數(shù)據(jù)為0-1,當(dāng)取0時,output =(0 - 0.5)/ 0.5 = -1
;當(dāng)取1時,output =(1 - 0.5)/ 0.5 = 1
。這樣就把數(shù)據(jù)統(tǒng)一到了[-1,1]之間了??????那么問題又來了,數(shù)據(jù)統(tǒng)一到[-1,1]有什么好處呢?數(shù)據(jù)如果分布在(0,1)之間,可能實際的bias,就是神經(jīng)網(wǎng)絡(luò)的輸入b會比較大,而模型初始化時b=0的,這樣會導(dǎo)致神經(jīng)網(wǎng)絡(luò)收斂比較慢,經(jīng)過Normalize后,可以加快模型的收斂速度?!具@句話是再網(wǎng)絡(luò)上找到最多的解釋,自己也不確定其正確性】
讀到這里大家是不是以為就完了呢?這里還想和大家嘮上一嘮??????上面的兩個參數(shù)(0.5,0.5,0.5)是怎么得來的呢?這是根據(jù)數(shù)據(jù)集中的數(shù)據(jù)計算出的均值和標(biāo)準(zhǔn)差,所以往往不同的數(shù)據(jù)集這兩個值是不同的??????這里再舉一個例子幫助大家理解其計算過程。同樣采用上文例子中提到的數(shù)據(jù)。
上文已經(jīng)得到了經(jīng)ToTensor轉(zhuǎn)換后的數(shù)據(jù),現(xiàn)需要求出該數(shù)據(jù)每個通道的mean和std?!具@一部分建議大家自己運行看看每一步的結(jié)果??????】
# 需要對數(shù)據(jù)進(jìn)行擴(kuò)維,增加batch維度 data = torch.unsqueeze(data,0) #在pytorch中一般都是(batch,C,H,W) nb_samples = 0. #創(chuàng)建3維的空列表 channel_mean = torch.zeros(3) channel_std = torch.zeros(3) N, C, H, W = data.shape[:4] data = data.view(N, C, -1) #將數(shù)據(jù)的H,W合并 #展平后,w,h屬于第2維度,對他們求平均,sum(0)為將同一緯度的數(shù)據(jù)累加 channel_mean += data.mean(2).sum(0) #展平后,w,h屬于第2維度,對他們求標(biāo)準(zhǔn)差,sum(0)為將同一緯度的數(shù)據(jù)累加 channel_std += data.std(2).sum(0) #獲取所有batch的數(shù)據(jù),這里為1 nb_samples += N #獲取同一batch的均值和標(biāo)準(zhǔn)差 channel_mean /= nb_samples channel_std /= nb_samples print(channel_mean, channel_std) #結(jié)果為tensor([0.0118, 0.0118, 0.0118]) tensor([0.0057, 0.0057, 0.0057])
將上述得到的mean和std帶入公式,計算輸出。
for i in range(3): data[i] = (data[i] - channel_mean[i]) / channel_std[i] print(data)
輸出結(jié)果:
? 從結(jié)果可以看出,我們計算的mean和std并不是0.5,且最后的結(jié)果也沒有在[-1,1]之間。
最后我們再來看一個有意思的例子,我們得到了最終的結(jié)果,要是我們想要變回去怎么辦,其實很簡單啦,就是一個逆運算,即input = std*output + mean
,然后再乘上255就可以得到原始的結(jié)果了。很多人獲取吐槽了,這也叫有趣?。???哈哈哈這里我想說的是另外的一個事,如果我們對一張圖像進(jìn)行了歸一化,這時候你用歸一化后的數(shù)據(jù)顯示這張圖像的時候,會發(fā)現(xiàn)同樣會是原圖。
參考鏈接1:https://zhuanlan.zhihu.com/p/414242338
參考鏈接2:https://blog.csdn.net/peacefairy/article/details/108020179
到此這篇關(guān)于pytorch中的transforms.ToTensor和transforms.Normalize的實現(xiàn)的文章就介紹到這了,更多相關(guān)pytorch transforms.ToTensor和transforms.Normalize內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
小學(xué)生也能看懂的Golang異常處理recover panic
在其他語言里,宕機(jī)往往以異常的形式存在,底層拋出異常,上層邏輯通過 try/catch 機(jī)制捕獲異常,沒有被捕獲的嚴(yán)重異常會導(dǎo)致宕機(jī),go語言追求簡潔,優(yōu)雅,Go語言不支持傳統(tǒng)的 try…catch…finally 這種異常2021-09-09