深度学习Pytorch(五)——数据加载和处理


文章目录

  • 深度学习Pytorch(五)——数据加载和处理
  • 一、下载安装包
  • 二、下载数据集
  • 三、读取数据集
  • 四、编写一个函数看看图像和landmark
  • 五、数据集类
  • 六、数据可视化
  • 七、数据变换
  • 1、Function_Rescale
  • 2、Function_RandomCrop
  • 3、Function_ToTensor
  • 八、组合转换
  • 九、迭代数据集


一、下载安装包

packages:

  • scikit-image:用于图像测IO和变换
  • pandas:方便进行csv解析

二、下载数据集

数据集说明:该数据集(我在这)是imagenet数据集标注为face的图片当中在dlib面部检测表现良好的图片——处理的是一个面部姿态的数据集,也就是按照入戏方式标注人脸

pytorch 读取cifa10数据 pytorch读取csv数据集_人工智能


数据集展示

pytorch 读取cifa10数据 pytorch读取csv数据集_深度学习_02


pytorch 读取cifa10数据 pytorch读取csv数据集_数据集_03

三、读取数据集

#%%读取数据集
landmarks_frame=pd.read_csv('D:/Python/Pytorch/data/faces/face_landmarks.csv')
n=65
img_name=landmarks_frame.iloc[n,0]
landmarks=landmarks_frame.iloc[n,1:].values
landmarks=landmarks.astype('float').reshape(-1,2)
print('Image name :{}'.format(img_name))
print('Landmarks shape :{}'.format(landmarks.shape))
print('First 4 Landmarks:{}'.format(landmarks[:4]))

运行结果

pytorch 读取cifa10数据 pytorch读取csv数据集_人工智能_04

四、编写一个函数看看图像和landmark

#%%编写显示人脸函数
def show_landmarks(image,landmarks):
    plt.imshow(image)
    plt.scatter(landmarks[:,0],landmarks[:,1],s=10,marker=".",c='r')
    plt.pause(0.001)

plt.figure()
show_landmarks(io.imread(os.path.join('D:/Python/Pytorch/data/faces/',img_name)),landmarks)
plt.show()

运行结果

pytorch 读取cifa10数据 pytorch读取csv数据集_数据集_05

五、数据集类

torch.utils.data.Dataset是表示数据集的抽象类,自定义数据类应继承Dataset并覆盖__len__实现len(dataset)返还数据集的尺寸。__getitem__用来获取一些索引数据:

#%%数据集类——将数据集封装成一个类
class FaceLandmarksDataset(Dataset):
    def __init__(self,csv_file,root_dir,transform=None):
        # csv_file(string):待注释的csv文件的路径
        # root_dir(string):包含所有图像的目录
        # transform(callabele,optional):一个样本上的可用的可选变换
        self.landmarks_frame=pd.read_csv(csv_file)
        self.root_dir=root_dir
        self.transform=transform
        
    def __len__(self):
        return len(self.landmarks_frame)
    
    def __getitem__(self, idx):
        img_name=os.path.join(self.root_dir,self.landmarks_frame.iloc[idx,0])
        image=io.imread(img_name)
        landmarks=self.landmarks_frame.iloc[idx,1:]
        landmarks=np.array([landmarks])
        landmarks=landmarks.astype('float').reshape(-1,2)
        sample={'image':image,'landmarks':landmarks}
        
        if self.transform:
            sample=self.transform(sample)
        return sample

六、数据可视化

#%%数据可视化
# 将上面定义的类进行实例化并便利整个数据集
face_dataset=FaceLandmarksDataset(csv_file='D:/Python/Pytorch/data/faces/face_landmarks.csv', 
                                  root_dir='D:/Python/Pytorch/data/faces/')
fig=plt.figure()
for i in range(len(face_dataset)) :
    sample=face_dataset[i]
    print(i,sample['image'].shape,sample['landmarks'].shape)
    
    ax=plt.subplot(1,4,i+1)
    plt.tight_layout()
    ax.set_title('Sample #{}'.format(i))
    ax.axis('off')
    show_landmarks(**sample)
    if i==3:
        plt.show()
        break

运行结果

pytorch 读取cifa10数据 pytorch读取csv数据集_pytorch 读取cifa10数据_06


pytorch 读取cifa10数据 pytorch读取csv数据集_pytorch 读取cifa10数据_07

七、数据变换

由上图可以发现每张图像的尺寸大小是不同的。绝大多数神经网路都嘉定图像的尺寸相同。所以需要对图像先进行预处理。创建三个转换:

  • Rescale:缩放图片
  • RandomCrop:对图片进行随机裁剪
  • ToTensor:把numpy格式图片转成torch格式图片(交换坐标轴)
    和上面同样的方式,将其写成一个类,这样就不需要在每次调用的时候川第一此参数,只需要实现__call__的方法,必要的时候使用__init__方法

1、Function_Rescale

# 将样本中的图像重新缩放到给定的大小
class Rescale(object):    
    def __init__(self,output_size):
        assert isinstance(output_size,(int,tuple))
        self.output_size=output_size
    #output_size 为int或tuple,如果是元组输出与output_size匹配,
    #如果是int,匹配较小的图像边缘到output_size保持纵横比相同
    def __call__(self,sample):
        image,landmarks=sample['image'],sample['landmarks']
        
        h,w=image.shape[:2]
        if isinstance(self.output_size, int):#输入参数是int
            if h>w:
                new_h,new_w=self.output_size*h/w,self.output_size
            else:
                new_h,new_w=self.output_size,self.output_size*w/h
        else:#输入参数是元组
            new_h,new_w=self.output_size
        new_h,new_w=int(new_h),int(new_w)
        img=transform.resize(image, (new_h,new_w))
        landmarks=landmarks*[new_w/w,new_h/h]
        return {'image':img,'landmarks':landmarks}

2、Function_RandomCrop

# 随机裁剪样本中的图像
class RandomCrop(object):
    def __init__(self,output_size):
        assert isinstance(output_size, (int,tuple))
        if isinstance(output_size, int):
            self.output_size=(output_size,output_size)
        else:
            assert len(output_size)==2
            self.output_size=output_size
    # 输入参数依旧表示想要裁剪后图像的尺寸,如果是元组其而包含两个元素直接复制长宽,如果是int,则裁剪为方形
                
    def __call__(self,sample):
        image,landmarks=sample['image'],sample['landmarks']
        h,w=image.shape[:2]
        new_h,new_w=self.output_size
        #确定图片裁剪位置
        top=np.random.randint(0,h-new_h)
        left=np.random.randint(0,w-new_w)
        image=image[top:top+new_h,left:left+new_w]
        landmarks=landmarks-[left,top]
        return {'image':image,'landmarks':landmarks}

3、Function_ToTensor

#%%
# 将样本中的npdarray转换为Tensor
class ToTensor(object):
    def __call__(self,sample):
        image,landmarks=sample['image'],sample['landmarks']
        image=image.transpose((2,0,1))#交换颜色轴
        #numpy的图片是:Height*Width*Color
        #torch的图片是:Color*Height*Width
        return {'image':torch.from_numpy(image),
                'landmarks':torch.from_numpy(landmarks)}

八、组合转换

将上面编写的类应用到实例中
Req: 把图像的短边调整为256,随机裁剪(randomcrop)为224大小的正方形。即:组合一个Rescale和RandomCrop的变换。

#%%
scale=Rescale(256)
crop=RandomCrop(128)
composed=transforms.Compose([Rescale(256),RandomCrop(224)])    
# 在样本上应用上述变换
fig=plt.figure() 
sample=face_dataset[65]
for i,tsfrm in enumerate([scale,crop,composed]):
    transformed_sample=tsfrm(sample)
    ax=plt.subplot(1,3,i+1)
    plt.tight_layout()
    ax.set_title(type(tsfrm).__name__)
    show_landmarks(**transformed_sample)

plt.show()

运行结果

pytorch 读取cifa10数据 pytorch读取csv数据集_人工智能_08

九、迭代数据集

把这些整合起来以创建一个带有组合转换的数据集,总结一下没每次这个数据集被采样的时候:及时的从文件中读取图片,对读取的图片应用转换,由于其中一部是随机的randomcrop,数据被增强了。可以使用循环对创建的数据集执行同样的操作

transformed_dataset=FaceLandmarksDataset(csv_file='D:/Python/Pytorch/data/faces/face_landmarks.csv',
                                          root_dir='D:/Python/Pytorch/data/faces/',
                                          transform=transforms.Compose([
                                              Rescale(256),
                                              RandomCrop(224),
                                              ToTensor()
                                              ]))
for i in range(len(transformed_dataset)):
    sample=transformed_dataset[i]
    print(i,sample['image'].size(),sample['landmarks'].size())
    if i==3:
        break

运行结果

pytorch 读取cifa10数据 pytorch读取csv数据集_人工智能_09


对所有数据集简单使用for循环会牺牲很多功能——>麻烦,效率低!!改用多线程并行进行

torch.utils.data.DataLoader可以提供上述功能的迭代器。collate_fn参数可以决定如何对数据进行批处理,绝大多数情况下默认值就OK

靓仔落泪
不知道是因为我的电脑没装驱动,没有办法用cuda的原因,我猜是,我每次多线程计算都不成功,哭唧唧,具体原因探索中,找到其中的瓜葛再来分享给

#%%靓仔落泪,我的电脑没办
dataloader=DataLoader(transformed_dataset,batch_size=0,shuffle=True,num_workers=0)
# helper:显示批次
def show_landmarks_batch(sample_batched):
    images_batch,landmarks_batch=sample_batched['image'],sample_batched['landmarks']
    batch_size=len(images_batch)
    im_size=images_batch.size(2)
    grid_border_size=2
    grid=utils.make_grid(images_batch)
    plt.imshow(grid.numpy().transpose((1,2,0))) 
    
    for i in range(batch_size):
        plt.scatter(landmarks_batch[i,:,0].numpy()+i*im_size+(i+1)*grid_border_size,
                    landmarks_batch[i,:,1].numpy()+grid_border_size,
                    s=10,marker='.',c='r')
        plt.title('Batch from dataloader')
        
for i_batch,sample_batched in enumerate(dataloader):
        print(i_batch,sample_batched['image'].size(),
              sample_batched['landmarks'].size())
        
        if i_batch==3:
            plt.figure()
            show_landmarks_batch(sample_batched)
            plt.axis('off')
            plt.ioff()
            plt.show()
            break

告一段落,明天见~(明天开组会,具体应该还能见,哈哈哈哈哈哈哈!)