2019-05-19
從GitHub下載了代碼(這里)
代碼量雖然不多,但是第一次學,花了時間還是挺多的。根據代碼有跑出結果(基本沒有改),但是對於數據集的處理還是看的很懵逼,主要是作者的實現都是用類封裝,然后調用函數實現,而且每一個代碼塊沒有測試,所以很多代碼不知道什么意思,所以,我把能夠拆分的進行了拆分,用jupyter重新實現下
一、數據集的理解
在加載成 dataloader 之前應先做預處理
1.對於訓練集不是利用RGB訓練的,而是使用YCbCr的 Y 通道
2.將訓練集圖像利用torchvision.transforms 里的 Resize 縮小到 128*128的大小,此時圖像會變模糊
(論文中用雙三次插值,所以我一直在代碼中找這個,沒想到用了Resize)
訓練圖:
Compose( CenterCrop(size=(256, 256)) Resize(size=128, interpolation=PIL.Image.BILINEAR) ToTensor() )
標簽:
Compose( CenterCrop(size=(256, 256)) ToTensor() )
3.構建dataloader()
4.前向傳播
nn.Conv2d(in_channels=num_channels, out_channels=base_filter, kernel_size=9, stride=1, padding=4, bias=True), nn.ReLU(inplace=True), nn.Conv2d(in_channels=base_filter, out_channels=base_filter // 2, kernel_size=1, bias=True), nn.ReLU(inplace=True), nn.Conv2d(in_channels=base_filter // 2, out_channels=num_channels * (upscale_factor ** 2), kernel_size=5, stride=1, padding=2, bias=True), nn.PixelShuffle(upscale_factor)
5.利用(1,1,256,256)的輸出和標簽做了loss
6.經過20代迭代
===> Epoch 20 starts: 200/200 [================================================================================>] Step: 151ms | Tot: 29s948ms | Loss: 0.0034 Average Loss: 0.0034 100/100 [================================================================================>] Step: 92ms | Tot: 8s353ms | PSNR: 25.9508 Average PSNR: 25.9508 dB