PyTorch小功能之TensorDataset解讀
PyTorch之TensorDataset
TensorDataset 可以用來對(duì) tensor 進(jìn)行打包,就好像 python 中的 zip 功能。
該類通過每一個(gè) tensor 的第一個(gè)維度進(jìn)行索引。
因此,該類中的 tensor 第一維度必須相等。
from torch.utils.data import TensorDataset import torch from torch.utils.data import DataLoader a = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9], [1, 2, 3], [4, 5, 6], [7, 8, 9], [1, 2, 3], [4, 5, 6], [7, 8, 9], [1, 2, 3], [4, 5, 6], [7, 8, 9]]) b = torch.tensor([44, 55, 66, 44, 55, 66, 44, 55, 66, 44, 55, 66]) train_ids = TensorDataset(a, b) # 切片輸出 print(train_ids[0:2]) print('=' * 80) # 循環(huán)取數(shù)據(jù) for x_train, y_label in train_ids: print(x_train, y_label) # DataLoader進(jìn)行數(shù)據(jù)封裝 print('=' * 80) train_loader = DataLoader(dataset=train_ids, batch_size=4, shuffle=True) for i, data in enumerate(train_loader, 1): # 注意enumerate返回值有兩個(gè),一個(gè)是序號(hào),一個(gè)是數(shù)據(jù)(包含訓(xùn)練數(shù)據(jù)和標(biāo)簽) x_data, label = data print(' batch:{0} x_data:{1} label: {2}'.format(i, x_data, label))
運(yùn)行結(jié)果:
(tensor([[1, 2, 3],
[4, 5, 6]]), tensor([44, 55]))
================================================================================
tensor([1, 2, 3]) tensor(44)
tensor([4, 5, 6]) tensor(55)
tensor([7, 8, 9]) tensor(66)
tensor([1, 2, 3]) tensor(44)
tensor([4, 5, 6]) tensor(55)
tensor([7, 8, 9]) tensor(66)
tensor([1, 2, 3]) tensor(44)
tensor([4, 5, 6]) tensor(55)
tensor([7, 8, 9]) tensor(66)
tensor([1, 2, 3]) tensor(44)
tensor([4, 5, 6]) tensor(55)
tensor([7, 8, 9]) tensor(66)
================================================================================
batch:1 x_data:tensor([[1, 2, 3],
[1, 2, 3],
[4, 5, 6],
[4, 5, 6]]) label: tensor([44, 44, 55, 55])
batch:2 x_data:tensor([[4, 5, 6],
[7, 8, 9],
[7, 8, 9],
[7, 8, 9]]) label: tensor([55, 66, 66, 66])
batch:3 x_data:tensor([[1, 2, 3],
[1, 2, 3],
[7, 8, 9],
[4, 5, 6]]) label: tensor([44, 44, 66, 55])
注意:TensorDataset 中的參數(shù)必須是 tensor
Pytorch中TensorDataset的快速使用
Pytorch中,TensorDataset()可以快速構(gòu)建訓(xùn)練所用的數(shù)據(jù),不用使用自建的Mydataset(),如果沒有熟悉適用的dataset可以使用TensorDataset()作為暫時(shí)替代。
只需要把data和label作為參數(shù)輸入,就可以快速構(gòu)建,之后便可以用Dataloader處理。
import numpy as np from torch.utils.data import DataLoader, TensorDataset data = np.loadtxt('x.txt') label = np.loadtxt('y.txt') data = torch.tensor(data) label = torch.tensor(label) train_data = TensorDataset(data, label) train_loader = DataLoader(dataset=train_data, batch_size=BATCH_SIZE, shuffle=True)?
總結(jié)
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
關(guān)于keras多任務(wù)多l(xiāng)oss回傳的思考
這篇文章主要介紹了關(guān)于keras多任務(wù)多l(xiāng)oss回傳的思考,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-05-05CentOS安裝pillow報(bào)錯(cuò)的解決方法
本文給大家分享的是作者在centos下為Python安裝pillow的時(shí)候報(bào)錯(cuò)的解決方法,希望對(duì)大家能夠有所幫助。2016-01-01python Requsets下載開源網(wǎng)站的代碼(帶索引 數(shù)據(jù))
這篇文章主要介紹了python Requsets下載開源網(wǎng)站的代碼(帶索引 數(shù)據(jù)),本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2021-04-04python?實(shí)現(xiàn)syslog?服務(wù)器的詳細(xì)過程
這篇文章主要介紹了python?實(shí)現(xiàn)syslog服務(wù)器的詳細(xì)過程,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2022-08-08python Django 創(chuàng)建應(yīng)用過程圖示詳解
這篇文章主要介紹了python Django 創(chuàng)建應(yīng)用過程圖示詳解,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-07-07如何通過神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)線性回歸的擬合
這篇文章主要介紹了如何通過神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)線性回歸的擬合問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-05-05