校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > 解決Pytorch dataloader時報錯每個tensor維度不一樣的問題

解決Pytorch dataloader時報錯每個tensor維度不一樣的問題

熱門標簽:開封語音外呼系統代理商 400電話辦理哪種 開封自動外呼系統怎么收費 手機網頁嵌入地圖標注位置 應電話機器人打電話違法嗎 天津電話機器人公司 電銷機器人的風險 地圖標注線上如何操作 河北防封卡電銷卡

使用pytorch的dataloader報錯:

RuntimeError: stack expects each tensor to be equal size, but got [2] at entry 0 and [1] at entry 1

1. 問題描述

報錯定位:位于定義dataset的代碼中

def __getitem__(self, index):
 ...
 return y    #此處報錯

報錯內容

File "D:\python\lib\site-packages\torch\utils\data\_utils\collate.py", line 55, in default_collate
return torch.stack(batch, 0, out=out)
RuntimeError: stack expects each tensor to be equal size, but got [2] at entry 0 and [1] at entry 1

把前一行的報錯帶上能夠更清楚地明白問題在哪里.

2.問題分析

從報錯可以看到,是在代碼中執行torch.stack時發生了報錯.因此必須要明白在哪里執行了stack操作.

通過調試可以發現,在通過loader加載一個batch數據的時候,是通過每一次給一個隨機的index取出相應的向量.那么最終要形成一個batch的數據就必須要進行拼接操作,而torch.stack就是進行這里所說的拼接.

再來看看具體報的什么錯: 說是stack的向量維度不同. 這說明在每次給出一個隨機的index,返回的y向量的維度應該是相同的,而我們這里是不同的.

這樣解決方法也就明確了:使返回的向量y的維度固定下來.

3.問題出處

為什么我會出現這樣的一個問題,是因為我的特征向量中存在multi-hot特征.而為了節省空間,我是用一個列表存儲這個特征的.示例如下:

feature=[[1,3,5],
  [0,2],
  [1,2,5,8]]

這就導致了我每次返回的向量的維度是不同的.因此可以采用向量補全的方法,把不同長度的向量補全成等長的.

 # 把所有向量的長度都補為6
 multi = np.pad(multi, (0, 6-multi.shape[0]), 'constant', constant_values=(0, -1))

4.總結

在構建dataset重寫的__getitem__方法中要返回相同長度的tensor.

可以使用向量補全的方法來解決這個問題.

補充:pytorch學習筆記:torch.utils.data下的TensorDataset和DataLoader的使用

一、TensorDataset

對給定的tensor數據(樣本和標簽),將它們包裝成dataset。注意,如果是numpy的array,或者Pandas的DataFrame需要先轉換成Tensor。

'''
data_tensor (Tensor) - 樣本數據
target_tensor (Tensor) - 樣本目標(標簽)
'''
 dataset=torch.utils.data.TensorDataset(data_tensor, 
                                        target_tensor)

下面舉個例子:

我們先定義一下樣本數據和標簽數據,一共有1000個樣本

import torch
import numpy as np
num_inputs = 2
num_examples = 1000
true_w = [2, -3.4]
true_b = 4.2
features = torch.tensor(np.random.normal(0, 1, 
                       (num_examples, num_inputs)), 
                       dtype=torch.float)

labels = true_w[0] * features[:, 0] + \

         true_w[1] * features[:, 1] + true_b

labels += torch.tensor(np.random.normal(0, 0.01, 
                       size=labels.size()), 
                       dtype=torch.float)

print(features.shape)
print(labels.shape)

'''
輸出:torch.Size([1000, 2])
     torch.Size([1000])
'''

然后我們使用TensorDataset來生成數據集

import torch.utils.data as Data
# 將訓練數據的特征和標簽組合
dataset = Data.TensorDataset(features, labels)

二、DataLoader

數據加載器,組合數據集和采樣器,并在數據集上提供單進程或多進程迭代器。它可以對我們上面所說的數據集Dataset作進一步的設置。

dataset (Dataset) – 加載數據的數據集。

batch_size (int, optional) – 每個batch加載多少個樣本(默認: 1)。

shuffle (bool, optional) – 設置為True時會在每個epoch重新打亂數據(默認: False).

sampler (Sampler, optional) – 定義從數據集中提取樣本的策略。如果指定,則shuffle必須設置成False。

num_workers (int, optional) – 用多少個子進程加載數據。0表示數據將在主進程中加載(默認: 0)

pin_memory:內存寄存,默認為False。在數據返回前,是否將數據復制到CUDA內存中。

drop_last (bool, optional) – 如果數據集大小不能被batch size整除,則設置為True后可刪除最后一個不完整的batch。如果設為False并且數據集的大小不能被batch size整除,則最后一個batch將更小。(默認: False)

timeout:是用來設置數據讀取的超時時間的,如果超過這個時間還沒讀取到數據的話就會報錯。 所以,數值必須大于等于0。

data_iter=torch.utils.data.DataLoader(dataset, batch_size=1, 
                            shuffle=False, sampler=None, 
                            batch_sampler=None, num_workers=0, 
                            collate_fn=None, pin_memory=False, 
                            drop_last=False, timeout=0, 
                            worker_init_fn=None, 
                            multiprocessing_context=None)

上面對一些重要常用的參數做了說明,其中有一個參數是sampler,下面我們對它有哪些具體取值再做一下說明。只列出幾個常用的取值:

torch.utils.data.sampler.SequentialSampler(dataset)

樣本元素按順序采樣,始終以相同的順序。

torch.utils.data.sampler.RandomSampler(dataset)

樣本元素隨機采樣,沒有替換。

torch.utils.data.sampler.SubsetRandomSampler(indices)

樣本元素從指定的索引列表中隨機抽取,沒有替換。

下面就來看一個例子,該例子使用的dataset就是上面所生成的dataset

data_iter=Data.DataLoader(dataset, 
                          batch_size=10, 
                          shuffle=False,
sampler=torch.utils.data.sampler.RandomSampler(dataset))

for X, y in data_iter:
    print(X,"\n", y)
    break

'''
輸出:
tensor([[-1.6338,  0.8451],
        [ 0.7245, -0.7387],
        [ 0.4672,  0.2623],
        [-1.9082,  0.0980],
        [-0.3881,  0.5138],
        [-0.6983, -0.4712],
        [ 0.1400,  0.7489],
        [-0.7761, -0.4596],
        [-2.2700, -0.2532],
        [-1.2641, -2.8089]]) 

tensor([-1.9451,  8.1587,  4.2374,  0.0519,  1.6843,  4.3970,  
        1.9311,  4.1999,0.5253, 11.2277])
'''

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch鎖死在dataloader(訓練時卡死)
  • pytorch Dataset,DataLoader產生自定義的訓練數據案例
  • pytorch中DataLoader()過程中遇到的一些問題
  • Pytorch dataloader在加載最后一個batch時卡死的解決
  • Pytorch 如何加速Dataloader提升數據讀取速度
  • pytorch DataLoader的num_workers參數與設置大小詳解
  • pytorch 實現多個Dataloader同時訓練

標簽:宿遷 江蘇 蘭州 駐馬店 成都 山東 六盤水 常州

巨人網絡通訊聲明:本文標題《解決Pytorch dataloader時報錯每個tensor維度不一樣的問題》,本文關鍵詞  解決,Pytorch,dataloader,時,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《解決Pytorch dataloader時報錯每個tensor維度不一樣的問題》相關的同類信息!
  • 本頁收集關于解決Pytorch dataloader時報錯每個tensor維度不一樣的問題的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 前郭尔| 稷山县| 金乡县| 苏尼特左旗| 盘锦市| 临猗县| 疏附县| 甘肃省| 伊宁市| 资溪县| 桦南县| 金寨县| 大渡口区| 泽库县| 田林县| 武城县| 新闻| 中超| 鄂州市| 长宁县| 东海县| 苍梧县| 洪洞县| 新闻| 克什克腾旗| 汤阴县| 延川县| 天水市| 罗甸县| 博白县| 娄底市| 辉县市| 清流县| 淳化县| 平泉县| 眉山市| 永清县| 江山市| 南安市| 衡南县| 贡嘎县|