dataset和dataloader的详解及使用
创始人
2024-11-17 17:37:08
0

dataset和dataloader是离不开的,dataset就像是一盒扑克牌,而dataloader就是发牌。下面让我们来学习dataset和dataloader吧

dataset

dataset常见的参数

datasets.训练所用的数据原名称(root,train,transform,download)

  • root:是数据源的文件所在位置
  • train:表示是否为训练后的数据源
  • transform:是对数据源中每一个数据的标准化处理
  • dowload:表示是否从官网下载该数据源

举例

import torchvision  dataset_transform=torchvision.transforms.Compose([torchvision.transforms.ToTensor()]) train_set=torchvision.datasets.CIFAR10(root="./dataset",transform=dataset_transform,train=True,download="True") test_set=torchvision.datasets.CIFAR10(root="./dataset",transform=dataset_transform,train=False,download="True")   

其中第四行是进行训练的数据源;
第五行是没有进行训练的数据源;
第三行是将数据源中的每一个数据转成tensor形式

dataset返回值

dataset返回的是一个大列表,每个列表的元素为一个小列表,小列表即为每个元素的信息,每个小列表包含两个元素,分别是图片和目标,可用以下方式接收

import torchvision  dataset_transform=torchvision.transforms.Compose([torchvision.transforms.ToTensor()]) train_set=torchvision.datasets.CIFAR10(root="./dataset",transform=dataset_transform,train=True,download="True") test_set=torchvision.datasets.CIFAR10(root="./dataset",transform=dataset_transform,train=False,download="True")  img,target=test_set[0] print(img) print(target)  writer.close() 

其中第7行为第1个数据的图片和期望的接收

dataloader

dataloader常见的参数

DataLoader(root,batch_size,shuffle,num_workers,drop_last)

  • root:数据原所在的文件地址(相当于扑克牌)
  • batch_size:每次分发几份数据(每次发几张牌)
  • shuffle:是否将数据打乱(是否要把牌打乱)
  • drop_last:是否删除多余的部分(有101张牌,每次分10张,是否删除最后多余的一张)
  • num_workers:几个进程

举例

import torchvision from torch.utils.data import DataLoader  dataset_transform=torchvision.transforms.ToTensor() test_dataset=torchvision.datasets.CIFAR10(root="./dataset",train=False,transform=dataset_transform) test_loader=DataLoader(test_dataset,10,False,num_workers=0,drop_last=True) 

其中第5行为dataset的使用,引入数据源
第6行为dataloader的使用,数据源为test_dataset,batch_size=10,shuffle=False
,每次发10张牌不打乱

返回值

返回一个大列表,大列表有(总数量除batch_size)个元素,每个元素是不同的数据的集合,即中列表,中列表有两个元素,一个是图片集和目标集,可用如下方式接受。

import torchvision from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriter  dataset_transform=torchvision.transforms.ToTensor() test_dataset=torchvision.datasets.CIFAR10(root="./dataset",train=False,transform=dataset_transform) test_loader=DataLoader(test_dataset,10,False,num_workers=0,drop_last=True)  # img,target=test_dataset[0] # print(img) # print(target)  writer=SummaryWriter("./DataLoader") step=0 for data in test_loader:     imgs,targets=data     writer.add_images("loader",imgs,step)     step+=1 writer.close() 

其中第16行为元素的接收。

相关内容

热门资讯

一分钟内幕!科乐吉林麻将系统发... 一分钟内幕!科乐吉林麻将系统发牌规律,福建大玩家确实真的是有挂,技巧教程(有挂ai代打);所有人都在...
一分钟揭秘!微扑克辅助软件(透... 一分钟揭秘!微扑克辅助软件(透视辅助)确实是有挂(2024已更新)(哔哩哔哩);1、用户打开应用后不...
五分钟发现!广东雀神麻雀怎么赢... 五分钟发现!广东雀神麻雀怎么赢,朋朋棋牌都是是真的有挂,高科技教程(有挂方法)1、广东雀神麻雀怎么赢...
每日必看!人皇大厅吗(透明挂)... 每日必看!人皇大厅吗(透明挂)好像存在有挂(2026已更新)(哔哩哔哩);人皇大厅吗辅助器中分为三种...
重大科普!新华棋牌有挂吗(透视... 重大科普!新华棋牌有挂吗(透视)一直是有挂(2021已更新)(哔哩哔哩)1、完成新华棋牌有挂吗的残局...
二分钟内幕!微信小程序途游辅助... 二分钟内幕!微信小程序途游辅助器,掌中乐游戏中心其实存在有挂,微扑克教程(有挂规律)二分钟内幕!微信...
科技揭秘!jj斗地主系统控牌吗... 科技揭秘!jj斗地主系统控牌吗(透视)本来真的是有挂(2025已更新)(哔哩哔哩)1、科技揭秘!jj...
1分钟普及!哈灵麻将攻略小,微... 1分钟普及!哈灵麻将攻略小,微信小程序十三张好像存在有挂,规律教程(有挂技巧)哈灵麻将攻略小是一种具...
9分钟教程!科乐麻将有挂吗,传... 9分钟教程!科乐麻将有挂吗,传送屋高防版辅助(总是存在有挂)1、完成传送屋高防版辅助透视辅助安装,帮...
每日必看教程!兴动游戏辅助器下... 每日必看教程!兴动游戏辅助器下载(辅助)真是真的有挂(2025已更新)(哔哩哔哩)1、打开软件启动之...