欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

pytorch中的transforms.ToTensor和transforms.Normalize的實現(xiàn)

 更新時間:2022年04月17日 12:07:26   作者:禿頭小蘇  
本文主要介紹了pytorch中的transforms.ToTensor和transforms.Normalize的實現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧

transforms.ToTensor

最近看pytorch時,遇到了對圖像數(shù)據(jù)的歸一化,如下圖所示:

image-20220416115017669

該怎么理解這串代碼呢?我們一句一句的來看,先看transforms.ToTensor(),我們可以先轉(zhuǎn)到官方給的定義,如下圖所示:

image-20220416115331930

大概的意思就是說,transforms.ToTensor()可以將PIL和numpy格式的數(shù)據(jù)從[0,255]范圍轉(zhuǎn)換到[0,1] ,具體做法其實就是將原始數(shù)據(jù)除以255。另外原始數(shù)據(jù)的shape是(H x W x C),通過transforms.ToTensor()后shape會變?yōu)椋– x H x W)。這樣說我覺得大家應(yīng)該也是能理解的,這部分并不難,但想著還是用一些例子來加深大家的映像??????

先導(dǎo)入一些包

import cv2
import numpy as np
import torch
from torchvision import transforms

定義一個數(shù)組模型圖片,注意數(shù)組數(shù)據(jù)類型需要時np.uint8【官方圖示中給出】

data = np.array([
                [[1,1,1],[1,1,1],[1,1,1],[1,1,1],[1,1,1]],
                [[2,2,2],[2,2,2],[2,2,2],[2,2,2],[2,2,2]],
                [[3,3,3],[3,3,3],[3,3,3],[3,3,3],[3,3,3]],
                [[4,4,4],[4,4,4],[4,4,4],[4,4,4],[4,4,4]],
                [[5,5,5],[5,5,5],[5,5,5],[5,5,5],[5,5,5]]
        ],dtype='uint8')

這是可以看看data的shape,注意現(xiàn)在為(W H C)。

image-20220416120518895

使用transforms.ToTensor()將data進(jìn)行轉(zhuǎn)換

data = transforms.ToTensor()(data)

這時候我們來看看data中的數(shù)據(jù)及shape。

image-20220416120811156

? 很明顯,數(shù)據(jù)現(xiàn)在都映射到了[0, 1]之間,并且data的shape發(fā)生了變換。

**注意:不知道大家是如何理解三維數(shù)組的,這里提供我的一個方法。**??????

??原始的data的shape為(5,5,3),則其表示有5個(5 , 3)的二維數(shù)組,即我們把最外層的[]去掉就得到了5個五行三列的數(shù)據(jù)。

??同樣的,變換后data的shape為(3,5,5),則其表示有3個(5 , 5)的二維數(shù)組,即我們把最外層的[]去掉就得到了3個五行五列的數(shù)據(jù)。

transforms.Normalize??

相信通過前面的敘述大家應(yīng)該對transforms.ToTensor有了一定的了解,下面將來說說這個transforms.Normalize??????同樣的,我們先給出官方的定義,如下圖所示:

image-20220416195418909

可以看到這個函數(shù)的輸出output[channel] = (input[channel] - mean[channel]) / std[channel]。這里[channel]的意思是指對特征圖的每個通道都進(jìn)行這樣的操作?!緈ean為均值,std為標(biāo)準(zhǔn)差】接下來我們看第一張圖片中的代碼,即

image-20220416200305159

這里的第一個參數(shù)(0.5,0.5,0.5)表示每個通道的均值都是0.5,第二個參數(shù)(0.5,0.5,0.5)表示每個通道的方差都為0.5?!疽驗閳D像一般是三個通道,所以這里的向量都是1x3的??????】有了這兩個參數(shù)后,當(dāng)我們傳入一個圖像時,就會按照上面的公式對圖像進(jìn)行變換?!?strong>注意:這里說圖像其實也不夠準(zhǔn)確,因為這個函數(shù)傳入的格式不能為PIL Image,我們應(yīng)該先將其轉(zhuǎn)換為Tensor格式】

說了這么多,那么這個函數(shù)到底有什么用呢?我們通過前面的ToTensor已經(jīng)將數(shù)據(jù)歸一化到了0-1之間,現(xiàn)在又接上了一個Normalize函數(shù)有什么用呢?其實Normalize函數(shù)做的是將數(shù)據(jù)變換到了[-1,1]之間。之前的數(shù)據(jù)為0-1,當(dāng)取0時,output =(0 - 0.5)/ 0.5 = -1;當(dāng)取1時,output =(1 - 0.5)/ 0.5 = 1。這樣就把數(shù)據(jù)統(tǒng)一到了[-1,1]之間了??????那么問題又來了,數(shù)據(jù)統(tǒng)一到[-1,1]有什么好處呢?數(shù)據(jù)如果分布在(0,1)之間,可能實際的bias,就是神經(jīng)網(wǎng)絡(luò)的輸入b會比較大,而模型初始化時b=0的,這樣會導(dǎo)致神經(jīng)網(wǎng)絡(luò)收斂比較慢,經(jīng)過Normalize后,可以加快模型的收斂速度?!具@句話是再網(wǎng)絡(luò)上找到最多的解釋,自己也不確定其正確性】

讀到這里大家是不是以為就完了呢?這里還想和大家嘮上一嘮??????上面的兩個參數(shù)(0.5,0.5,0.5)是怎么得來的呢?這是根據(jù)數(shù)據(jù)集中的數(shù)據(jù)計算出的均值和標(biāo)準(zhǔn)差,所以往往不同的數(shù)據(jù)集這兩個值是不同的??????這里再舉一個例子幫助大家理解其計算過程。同樣采用上文例子中提到的數(shù)據(jù)。

上文已經(jīng)得到了經(jīng)ToTensor轉(zhuǎn)換后的數(shù)據(jù),現(xiàn)需要求出該數(shù)據(jù)每個通道的mean和std?!具@一部分建議大家自己運行看看每一步的結(jié)果??????】

# 需要對數(shù)據(jù)進(jìn)行擴(kuò)維,增加batch維度
data = torch.unsqueeze(data,0)    #在pytorch中一般都是(batch,C,H,W)
nb_samples = 0.
#創(chuàng)建3維的空列表
channel_mean = torch.zeros(3)
channel_std = torch.zeros(3)
N, C, H, W = data.shape[:4]
data = data.view(N, C, -1)  #將數(shù)據(jù)的H,W合并
#展平后,w,h屬于第2維度,對他們求平均,sum(0)為將同一緯度的數(shù)據(jù)累加
channel_mean += data.mean(2).sum(0)  
#展平后,w,h屬于第2維度,對他們求標(biāo)準(zhǔn)差,sum(0)為將同一緯度的數(shù)據(jù)累加
channel_std += data.std(2).sum(0)
#獲取所有batch的數(shù)據(jù),這里為1
nb_samples += N
#獲取同一batch的均值和標(biāo)準(zhǔn)差
channel_mean /= nb_samples
channel_std /= nb_samples
print(channel_mean, channel_std)   #結(jié)果為tensor([0.0118, 0.0118, 0.0118]) tensor([0.0057, 0.0057, 0.0057])

將上述得到的mean和std帶入公式,計算輸出。

for i in range(3):
    data[i] = (data[i] - channel_mean[i]) / channel_std[i]
print(data)

輸出結(jié)果:

image-20220416205341050

? 從結(jié)果可以看出,我們計算的mean和std并不是0.5,且最后的結(jié)果也沒有在[-1,1]之間。

最后我們再來看一個有意思的例子,我們得到了最終的結(jié)果,要是我們想要變回去怎么辦,其實很簡單啦,就是一個逆運算,即input = std*output + mean,然后再乘上255就可以得到原始的結(jié)果了。很多人獲取吐槽了,這也叫有趣?。???哈哈哈這里我想說的是另外的一個事,如果我們對一張圖像進(jìn)行了歸一化,這時候你用歸一化后的數(shù)據(jù)顯示這張圖像的時候,會發(fā)現(xiàn)同樣會是原圖。

參考鏈接1:https://zhuanlan.zhihu.com/p/414242338

參考鏈接2:https://blog.csdn.net/peacefairy/article/details/108020179

到此這篇關(guān)于pytorch中的transforms.ToTensor和transforms.Normalize的實現(xiàn)的文章就介紹到這了,更多相關(guān)pytorch transforms.ToTensor和transforms.Normalize內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • Golang使用gvm進(jìn)行版本控制的安裝使用教程

    Golang使用gvm進(jìn)行版本控制的安裝使用教程

    這篇文章主要為大家介紹了Golang使用gvm進(jìn)行版本控制的安裝使用教程詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2023-09-09
  • 6行代碼快速解決golang TCP粘包問題

    6行代碼快速解決golang TCP粘包問題

    在用golang開發(fā)人工客服系統(tǒng)的時候碰到了粘包問題,那么什么是粘包呢?下面這篇文章主要給大家介紹了關(guān)于如何通過6行代碼快速解決golang TCP粘包問題的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),需要的朋友可以參考借鑒下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧。
    2018-03-03
  • Go 每日一庫之termtables的使用

    Go 每日一庫之termtables的使用

    本文主要介紹了Go 每日一庫之termtables的使用,termtables處理表格形式數(shù)據(jù)的輸出。是一個很小巧的工具庫。具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2021-07-07
  • go貨幣計算時如何避免浮點數(shù)精度問題

    go貨幣計算時如何避免浮點數(shù)精度問題

    在開發(fā)的初始階段,我們經(jīng)常會遇到“浮點數(shù)精度”和“貨幣值表示”的問題,那么在golang中如何避免這一方面的問題呢,下面就跟隨小編一起來學(xué)習(xí)一下吧
    2024-02-02
  • Golang?template?包基本原理分析

    Golang?template?包基本原理分析

    這篇文章主要為大家介紹了Golang?template?包基本原理分析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2022-09-09
  • 一文帶你深入探索Golang操作mongodb的方法

    一文帶你深入探索Golang操作mongodb的方法

    這篇文章主要為大家詳細(xì)介紹了Golang操作mongodb的相關(guān)知識,包括:初始化項目工程、容器方式安裝mongo和調(diào)試運行和編譯運行,感興趣的小伙伴可以了解一下
    2023-02-02
  • golang中json和struct的使用說明

    golang中json和struct的使用說明

    這篇文章主要介紹了golang中json和struct的使用說明,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2021-05-05
  • 小學(xué)生也能看懂的Golang異常處理recover panic

    小學(xué)生也能看懂的Golang異常處理recover panic

    在其他語言里,宕機(jī)往往以異常的形式存在,底層拋出異常,上層邏輯通過 try/catch 機(jī)制捕獲異常,沒有被捕獲的嚴(yán)重異常會導(dǎo)致宕機(jī),go語言追求簡潔,優(yōu)雅,Go語言不支持傳統(tǒng)的 try…catch…finally 這種異常
    2021-09-09
  • Go內(nèi)置序列化庫gob的使用

    Go內(nèi)置序列化庫gob的使用

    本文主要介紹了Go內(nèi)置序列化庫gob的使用,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2023-04-04
  • Go 中燒腦的接口及空接口

    Go 中燒腦的接口及空接口

    在Go語言的實際編程中,幾乎所有的數(shù)據(jù)結(jié)構(gòu)都圍繞接口展開,接口是Go語言中所有數(shù)據(jù)結(jié)構(gòu)的核心,這篇文章主要介紹了Go 中燒腦的接口,需要的朋友可以參考下
    2024-02-02

最新評論