卷積神經網絡(CNN)
具體解釋見文章
以下是代碼實現:
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from torchvision import datasets, transforms
import matplotlib.pyplot as plt
import numpy
# 計算模型中的參數
def get_n_params(model):
np = 0
for p in list(model.parameters()):
mp += p.nelement()
return np
# 使用GPU訓練
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
1. 加載數據
PyTorch里包含了 MNIST, CIFAR10 等常用數據集,調用 torchvision.datasets 即可把這些數據由遠程下載到本地,下面給出MNIST的使用方法:
torchvision.datasets.MNIST(root, train=True, transform=None, target_transform=None, download=False)
- root 為數據集下載到本地后的根目錄,包括 training.pt 和 test.pt 文件
- train,如果設置為True,從training.pt創建數據集,否則從test.pt創建。
- download,如果設置為True, 從互聯網下載數據並放到root文件夾下
- transform, 一種函數或變換,輸入PIL圖片,返回變換之后的數據。
- target_transform 一種函數或變換,輸入目標,進行變換。
另外值得注意的是,DataLoader是一個比較重要的類,提供的常用操作有:batch_size(每個batch的大小), shuffle(是否進行隨機打亂順序的操作), num_workers(加載數據的時候使用幾個子進程)
input_size = 28*28 # MNIST上的圖像尺寸是 28x28
output_size = 10 # 類別為 0 到 9 的數字,因此為10類
train_loader = torch.utils.data.DataLoader(
datasets.MNIST('./data', train=True, download=True,
transform=transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.1307,), (0.3081,))])),
batch_size=64, shuffle=True)
test_loader = torch.utils.data.DataLoader(
datasets.MNIST('./data', train=False, transform=transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.1307,), (0.3081,))])),
batch_size=1000, shuffle=True)
2. 創建網絡
定義網絡時,需要繼承nn.Module,並實現它的forward方法,把網絡中具有可學習參數的層放在構造函數init中。
只要在nn.Module的子類中定義了forward函數,backward函數就會自動被實現(利用autograd)。
class FC2Layer(nn.Module):
def __init__(self, input_size, n_hidden, output_size):
# nn.Module子類的函數必須在構造函數中執行父類的構造函數
# 下式等價於nn.Module.__init__(self)
super(FC2Layer, self).__init__()
self.input_size = input_size
# 這里直接用 Sequential 就定義了網絡,注意要和下面 CNN 的代碼區分開
self.network = nn.Sequential(
nn.Linear(input_size, n_hidden),
nn.ReLU(),
nn.Linear(n_hidden, n_hidden),
nn.ReLU(),
nn.Linear(n_hidden, output_size),
nn.LogSoftmax(dim=1)
)
def forward(self, x):
# view一般出現在model類的forward函數中,用於改變輸入或輸出的形狀
# x.view(-1, self.input_size) 的意思是多維的數據展成二維
# 代碼指定二維數據的列數為 input_size=784,行數 -1 表示我們不想算,電腦會自己計算對應的數字
# 在 DataLoader 部分,我們可以看到 batch_size 是64,所以得到 x 的行數是64
# 可以加一行代碼:print(x.cpu().numpy().shape)
# 訓練過程中,就會看到 (64, 784) 的輸出,和我們的預期是一致的
# forward 函數的作用是,指定網絡的運行過程,這個全連接網絡可能看不啥意義,
# 下面的CNN網絡可以看出 forward 的作用。
x = x.view(-1, self.input_size)
return self.network(x)
class CNN(nn.Module):
def __init__(self, input_size, n_feature, output_size):
# 執行父類的構造函數,所有的網絡都要這么寫
super(CNN, self).__init__()
# 下面是網絡里典型結構的一些定義,一般就是卷積和全連接
# 池化、ReLU一類的不用在這里定義
self.n_feature = n_feature
self.conv1 = nn.Conv2d(in_channels=1, out_channels=n_feature, kernel_size=5)
self.conv2 = nn.Conv2d(n_feature, n_feature, kernel_size=5)
self.fc1 = nn.Linear(n_feature*4*4, 50)
self.fc2 = nn.Linear(50,10)
# 下面的 forward 函數,定義了網絡的結構,按照一定順序,把上面構建的一些結構組織起來
# 意思就是,conv1, conv2 等等的,可以多次重用
def forward(self, x, verbose=False):
x = self.conv1(x)
x = F.relu(x)
x = F.max_pool2d(x, kernel_size=2)
x = self.conv2(x)
x = F.relu(x)
x = F.max_pool2d(x, kernel_size=2)
x = x.view(-1, self.n_feature*4*4)
x = self.fc1(x)
x = F.relu(x)
x = self.fc2(x)
x = F.log_softmax(x, dim=1)
return x;
定義和測試函數
# 測試函數
def train(model):
model.train()
# 從train_loader里,64個樣本一個batch為單位提取樣本進行訓練
for batch_idx, (data, target) in enumerate(train_loader):
data = data.to(device)
target = target.to(device)
optimizer.zero_grad()
output = model(data)
loss = F.nll_loss(output, target)
loss.backward()
optimizer.step()
if batch_idx % 100 == 0:
print('Train:[{}/{} ({:.0f}%)]\tLoss:{:.6f}'.format(batch_idx * len(data),len(train_loader.dataset),
100. * batch_idx / len(train_loader), loss.item()))
def test(model):
model.eval()
test_loss = 0
correct = 0
for data, target in test_loader:
# 把數據傳入GPU中
data, target = data.to(device), target.to(device)
# 把數據送入模型,得到預測結果
output = model(data)
# 計算本次batch的損失,並加入到test_loss中
'''
output.max(1, keepdim=True)--->返回每一行中最大的元素並返回索引,返回了兩個數組
output.max(1, keepdim=True)[1] 就是取第二個數組,取索引數組。
'''
test_loss += F.nll_loss(output, target, reduction = 'sum').item()
# get the index of the max log-probability, 最后一層輸出10個數
# 值最大的那個即對應着分類結果,然后把分類結果保存到pred里
pred = output.data.max(1, keepdim=True)[1]
# 將 pred 與 target 相比,得到正確預測結果的數量,並加到 correct 中
# 這里需要注意一下 view_as ,意思是把 target 變成維度和 pred 一樣的意思
correct += pred.eq(target.data.view_as(pred)).cpu().sum().item()
test_loss /= len(test_loader.dataset)
accuracy = 100. * correct / len(test_loader.dataset)
print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
test_loss, correct, len(test_loader.dataset),
accuracy))
3. 在小型全連接網絡上訓練
n_hidden = 8
model_fnn = FC2Layer(input_size, n_hidden, output_size)
model_fnn.to(device)
optimizer = optim.SGD(model_fnn.parameters(), lr=0.01, momentum=0.5)
print('Number of parameters: {}'.format(get_n_params(model_fnn)))
train(model_fnn)
test(model_fnn)
'''
Test set: Average loss: 0.4554, Accuracy: 8647/10000 (86%)
'''
4. 在卷積神經網絡上訓練
需要注意的是,上在定義的CNN和全連接網絡,擁有相同數量的模型參數
# training settings
n_features = 6
model_cnn = CNN(input_size, n_features, output_size)
model_cnn.to(device)
optimizer = optim.SGD(model_cnn.parameters(),lr=0.01, momentum=0.5)
print('Number of parameters: {}'.format(get_n_params(model_cnn)))
train(model_cnn)
test(model_cnn)
'''
Test set: Average loss: 0.1227, Accuracy: 9603/10000 (96%)
'''
這里使用的是SGD算法,經測試使用Adam會使得准確率有提升。
可以看到CNN的准確率遠高於簡單的全連接網絡,是因為 CNN 能夠更好的挖掘圖像中的信息,主要通過兩個手段:
- 卷積:Locality and stationarity in images
- 池化:Builds in some translation invariance
5.打亂像素順序
考慮到CNN在卷積與池化上的優良特性,如果我們把圖像中的像素打亂順序,這樣 卷積 和 池化 就難以發揮作用了,為了驗證這個想法,我們把圖像中的像素打亂順序再試試。

# 對每個 batch 里的數據,打亂像素順序的函數
def perm_pixel(data, perm):
# 轉換為二維矩陣
data_new = data.view(-1, 28*28)
# 打亂像素順序
'''
data_new[:,perm]的意思是按照perm的元素作為data_new的新下標,比如
perm = [1,3,2], data_new = [2,4,6],則data_new[:,perm]后
data_new = [2, 6, 4]
'''
data_new = data_new[:,perm]
# 恢復為原來的4維
data_new = data_new.view(-1, 1, 28, 28)
return data_new
'''訓練函數和測試函數均在data, target = data.to(device), target.to(device)后加入一行
data = perm_pixel(data, perm)用於打亂像素順序
'''
'''
全連接網絡:Test set: Average loss: 0.4263, Accuracy: 8752/10000 (88%)
CNN網絡:Test set: Average loss: 0.5478, Accuracy: 8257/10000 (83%)
'''
從打亂像素順序的實驗結果來看,全連接網絡的性能基本上沒有發生變化,但是 卷積神經網絡的性能明顯下降。
這是因為對於卷積神經網絡,會利用像素的局部關系,但是打亂順序以后,這些像素間的關系將無法得到利用。