网站建设资讯

NEWS

网站建设资讯

从图像超分辨率快速入门pytorch-创新互联

前言

成都创新互联10多年成都定制网站服务;为您提供网站建设,网站制作,网页设计及高端网站定制服务,成都定制网站及推广,对假山制作等多个行业拥有多年的网站运维经验的网站建设公司。

最近又开始把pytorch拾起来,学习了github上一些项目之后,发现每个人都会用不同的方式来写深度学习的训练代码,而这些代码对于初学者来说是难以阅读的,因为关键和非关键代码糅杂在一起,让那些需要快速将代码跑起来的初学者摸不着头脑。

所以,本文打算从最基本的出发,只写关键代码,将完成一次深度学习训练需要哪些要素展现给各位初学者,以便你们能够快速上手。等到能够将自己的想法用最简洁的方式写出来并运行起来之后,再对自己的代码进行重构、扩展。我认为这种学习方式是较好的循序渐进的学习方式。

本文选择超分辨率作为入门案例,一是因为通过结合案例能够对训练中涉及到的东西有较好的体会,二是超分辨率是较为简单的任务,我们本次教程的目的是教会大家如何使用pytorch,所以不应该将难度设置在任务本身上。下面开始正文。。。

正文

单一图像超分辨率(SISR)

简单介绍一下图像超分辨率这一任务:超分辨率的任务就是将一张图像的尺寸放大并且要求失真越小越好,举例来说,我们需要将一张256*500的图像放大2倍,那么放大后的图像尺寸就应该是512*1000。用深度学习的方法,我们通常会先将图像缩小成原来的1/2,然后以原始图像作为标签,进行训练。训练的目标是让缩小后的图像放大2倍后与原图越近越好。所以通常会用L1或者L2作为损失函数。

训练4要素

一次训练要想完成,需要的要素我总结为4点:

网络模型

数据

损失函数

优化器

这4个对象都是一次训练必不可少的,通常情况下,需要我们自定义的是前两个:网络模型和数据,而后面两个较为统一,而且pytorch也提供了非常全面的实现供我们使用,它们分别在torch.nn包和torch.optim包下面,使用的时候可以到pytorch官网进行查看,后面我们用到的时候还会再次说明。

网络模型

在网络模型和数据两个当中,网络模型是比较简单的,数据加载稍微麻烦些。我们先来看网络模型的定义。自定义的网络模型都必须继承torch.nn.Module这个类,里面有两个方法需要重写:初始化方法__init__(self)和forward(self, *input)方法。在初始化方法中一般要写我们需要哪些层(卷积层、全连接层等),而在forward方法中我们需要写这些层的连接方式。举一个通俗的例子,搭积木需要一个个的积木块,这些积木块放在__init__方法中,而规定将这些积木块如何连接起来则是靠forward方法中的内容。

import torch.nn as nn

import torch.nn.functional as F

class VDSR(nn.Module):

def __init__(self):

super(VDSR, self).__init__()

self.conv1 = nn.Conv2d(1, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv2 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv3 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv4 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv5 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv6 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv7 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv8 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv9 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv10 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv11 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv12 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv13 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv14 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv15 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv16 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv17 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv18 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv19 = nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1, bias=True)

self.conv20 = nn.Conv2d(64, 1, kernel_size=3, stride=1, padding=1, bias=True)

def forward(self, x):

ori = x

x = F.relu(self.conv1(x))

x = F.relu(self.conv2(x))

x = F.relu(self.conv3(x))

x = F.relu(self.conv4(x))

x = F.relu(self.conv5(x))

x = F.relu(self.conv6(x))

x = F.relu(self.conv7(x))

x = F.relu(self.conv8(x))

x = F.relu(self.conv9(x))

x = F.relu(self.conv10(x))

x = F.relu(self.conv11(x))

x = F.relu(self.conv12(x))

x = F.relu(self.conv13(x))

x = F.relu(self.conv14(x))

x = F.relu(self.conv15(x))

x = F.relu(self.conv16(x))

x = F.relu(self.conv17(x))

x = F.relu(self.conv18(x))

x = F.relu(self.conv19(x))

x = self.conv20(x)

return x + ori

上面代码中展示的是我们要用到的模型VDSR,这个模型很简单,就是连续的20层卷积,外加一个跳线连接。结构图如下:

在写网络模型时,用到的各个层都在torch.nn这个包中,在写自定义的网络结构时可以自行到pytorch官网的文档中进行查看。

数据

定义了网络模型之后,我们再来看“数据”。“数据”主要涉及到Dataset和DataLoader两个概念。

Dataset是数据加载的基础,我们一般在加载自己的数据集时都需要自定义一个Dataset,自定义的Dataset都需要继承torch.utils.data.Dataset这个类,当实现了__getitem__()和__len__()这两个方法后,我们就自定义了一个Map-style datasets,Dataset是一个可迭代对象,通过下标访问的方式就能够调用__getitem__()方法来实现数据加载。

这里面最关键的就算是__getitem__()如何来写了,我们需要让__getitem__()的返回值是一对,包括图像和它的label,这里我们的任务是超分辨率,那么图像和label分别是经过下采样的图像和与其对应的原始图像。所以我们Dataset的__getitem__()方法返回值就应该是两个3D Tensor,分别表示两种图像。

这里需要重点说明一下__getitem__()方法的返回值为什么应该是3D Tensor。根据pytorch官网的说法,二维卷积层只接受4D Tensor,它的每一维表示的内容分别是nSamples x nChannels x Height x Width,我们最后需要用批量的方式将数据送到网络中,所以__getitem__()方法的返回值就应该是后面三维的内容,即便是我们的通道数为1,也必须有这一维的存在,否则就会报错。后面代码中用到的unsqueeze(0)方法的作用就是如此。前面是说了为什么应该是3D的,为什么应该是Tensor呢?Tensor是跟NumPy中ndarray类似的东西,只是它能够被用于GPU中来加速计算。

下面来看一下我们的代码:

import os

import random

import cv2

import torch

from torch.utils.data import Dataset

patch_size = 64

def getPatch(y):

h, w = y.shape

randh = random.randrange(0, h - patch_size + 1)

randw = random.randrange(0, w - patch_size + 1)

lab = y[randh:randh + patch_size, randw:randw + patch_size]

resized = cv2.resize(lab, None, fx=0.5, fy=0.5, interpolation=cv2.INTER_CUBIC)

rresized = cv2.resize(resized, None, fx=2, fy=2, interpolation=cv2.INTER_CUBIC)

return rresized, lab

class MyDateSet(Dataset):

def __init__(self, imageFolder):

self.imageFolder = imageFolder

self.images = os.listdir(imageFolder)

def __len__(self):

return len(self.images)

def __getitem__(self, index):

name = self.images[index]

name = os.path.join(self.imageFolder, name)

imread = cv2.imread(name)

# 转换颜色空间

ycrcb = cv2.cvtColor(imread, cv2.COLOR_RGB2YCR_CB)

# 提取y通道

y = ycrcb[:, :, 0]

# 裁剪成小块

img, lab = getPatch(y)

# 转为3D Tensor郑州妇科医院 http://www.sptdfk.com/

return torch.from_numpy(img).unsqueeze(0), torch.from_numpy(lab).unsqueeze(0)

其中MyDateSet的内容也不长,包括了初始化方法、__getitem__()和__len__()两个方法。__getitem__()有一个输入值是下标值,我们根据下标,利用OpenCV,读取了图像,并将其转换颜色空间,超分训练的时候我们只用了其中的y通道。还对图形进行了裁剪,最后返回了两个3D Tensor。

在写自定义数据集的时候,我们最需要关注的点就是__getitem__()方法的返回值是不是符合要求,能不能够被送到网络中去。至于中间该怎么操作,其实跟pytorch框架也没什么关系,根据需要来做。

训练

写好了Dataset之后,我们就能够通过下标的方式获取图像以及它的label。但是离开始训练还有两个要素:损失函数和优化器。前面我们也说了,这两部分,pytorch官方提供了大量的实现,多数情况下不需要我们自己来自定义,这里我们直接使用了提供的torch.nn.MSELoss(size_average=None, reduce=None, reduction='mean')作为损失函数和torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False)作为优化器。

训练示例代码:

import torch

import torch.nn as nn

import torch.optim as optim

import date

import model

date_set = date.MyDateSet("Train/")

model = model.VDSR()

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

model.to(device)

mse_loss = nn.MSELoss()

adam = optim.Adam(model.parameters())

for epoch in range(100):

running_loss = 0.0

for i in range(len(date_set)):

rresized, y = date_set[i]

adam.zero_grad()

out = model(rresized.unsqueeze(0).to(device, torch.float))

loss = mse_loss(out, y.unsqueeze(0).to(device, torch.float))

loss.backward()

adam.step()

running_loss += loss

if i % 100 == 99: # print every 100

print('[%d, %5d] loss: %.3f' %

(epoch + 1, i + 1, running_loss / 100))

running_loss = 0.0

print('Finished Training')

整个训练代码非常简洁,只有短短几行,定义模型、将模型移至GPU、定义损失函数、定义优化器(模型移动至GPU一定要在定义优化器之前,因为移动前后的模型已经不是同一个模型对象)。

训练时,先用zero_grad()来将上一次的梯度清零,然后将数据输入网络,求误差,误差反向传播求每个requires_grad=True的Tensor(也就是网络权重)的梯度,根据优化规则对网络权重值进行更新,在一次次的更新迭代中,网络朝着loss降低的方向变化着。

值的注意的是,图像数据也需要移动至GPU,并且需要将其类型转换为与网络模型的权重相同的torch.float

DataLoader

到前面为止,其实已经能够实现训练的过程了,但是,通常情况下,我们都需要:

将数据打包成一个批量送入网络

每次随机将数据打乱送入网络

用多线程的方式加载数据(这样能够提升数据加载速度)

这些事情不需要我们自己实现,有torch.utils.data.DataLoader来帮我们实现。完整声明如下:

torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_last=False, timeout=0, worker_init_fn=None, multiprocessing_context=None)

其中的sampler、batch_sampler、collate_fn都是可以有自定义实现的。我们简单的使用默认的实现来构造DataLoader。使用了DataLoader之后的训练代码稍微有些不同,其中也添加了保存模型的代码(只保存参数的方式):

import torch

import torch.nn as nn

import torch.optim as optim

from torch.utils.data import DataLoader

import date

import model

date_set = date.MyDateSet("Train/")

dataloader = DataLoader(date_set, batch_size=128,

shuffle=True, drop_last=True)

model = model.VDSR()

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

model.to(device)

mse_loss = nn.MSELoss()

adam = optim.Adam(model.parameters())

def train():

for epoch in range(1000):

running_loss = 0.0

for i, images in enumerate(dataloader):

rresized, y = images

adam.zero_grad()

out = model(rresized.to(device, torch.float))

loss = mse_loss(out, y.to(device, torch.float))

loss.backward()

adam.step()

running_loss += loss

if epoch % 10 == 9:

PATH = './trainedModel/net_' + str(epoch + 1) + '.pth'

torch.save(model.state_dict(), PATH)

print('[%d] loss: %.3f' %

(epoch + 1, running_loss / 3))

print('Finished Training')

if __name__ == '__main__':

train()

另外有需要云服务器可以了解下创新互联cdcxhl.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


本文题目:从图像超分辨率快速入门pytorch-创新互联
当前链接:http://cdweb.net/article/ejhhj.html