MNIST 數據集分類


卷積神經網絡(CNN)

具體解釋見文章

以下是代碼實現:

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from torchvision import datasets, transforms
import matplotlib.pyplot as plt
import numpy


# 計算模型中的參數
def get_n_params(model):
    np = 0
    for p in list(model.parameters()):
        mp += p.nelement()
    return np

# 使用GPU訓練
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

1. 加載數據

PyTorch里包含了 MNIST, CIFAR10 等常用數據集,調用 torchvision.datasets 即可把這些數據由遠程下載到本地,下面給出MNIST的使用方法:

torchvision.datasets.MNIST(root, train=True, transform=None, target_transform=None, download=False)

  • root 為數據集下載到本地后的根目錄,包括 training.pt 和 test.pt 文件
  • train,如果設置為True,從training.pt創建數據集,否則從test.pt創建。
  • download,如果設置為True, 從互聯網下載數據並放到root文件夾下
  • transform, 一種函數或變換,輸入PIL圖片,返回變換之后的數據。
  • target_transform 一種函數或變換,輸入目標,進行變換。

另外值得注意的是,DataLoader是一個比較重要的類,提供的常用操作有:batch_size(每個batch的大小), shuffle(是否進行隨機打亂順序的操作), num_workers(加載數據的時候使用幾個子進程)

input_size = 28*28 # MNIST上的圖像尺寸是 28x28
output_size = 10  # 類別為 0 到 9 的數字,因此為10類

train_loader = torch.utils.data.DataLoader(
    datasets.MNIST('./data', train=True, download=True,
        transform=transforms.Compose(
            [transforms.ToTensor(),
             transforms.Normalize((0.1307,), (0.3081,))])),
    batch_size=64, shuffle=True)

test_loader = torch.utils.data.DataLoader(
    datasets.MNIST('./data', train=False, transform=transforms.Compose([
             transforms.ToTensor(),
             transforms.Normalize((0.1307,), (0.3081,))])),
    batch_size=1000, shuffle=True)

2. 創建網絡

定義網絡時,需要繼承nn.Module,並實現它的forward方法,把網絡中具有可學習參數的層放在構造函數init中。

只要在nn.Module的子類中定義了forward函數,backward函數就會自動被實現(利用autograd)。

class FC2Layer(nn.Module):
  def __init__(self, input_size, n_hidden, output_size):
    # nn.Module子類的函數必須在構造函數中執行父類的構造函數
    # 下式等價於nn.Module.__init__(self) 
    super(FC2Layer, self).__init__()
    self.input_size = input_size
    # 這里直接用 Sequential 就定義了網絡,注意要和下面 CNN 的代碼區分開
    self.network = nn.Sequential(
        nn.Linear(input_size, n_hidden),
        nn.ReLU(),
        nn.Linear(n_hidden, n_hidden),
        nn.ReLU(),
        nn.Linear(n_hidden, output_size),
        nn.LogSoftmax(dim=1)
    )
  def forward(self, x):
    # view一般出現在model類的forward函數中,用於改變輸入或輸出的形狀
    # x.view(-1, self.input_size) 的意思是多維的數據展成二維
    # 代碼指定二維數據的列數為 input_size=784,行數 -1 表示我們不想算,電腦會自己計算對應的數字
    # 在 DataLoader 部分,我們可以看到 batch_size 是64,所以得到 x 的行數是64
    # 可以加一行代碼:print(x.cpu().numpy().shape)
    # 訓練過程中,就會看到 (64, 784) 的輸出,和我們的預期是一致的

    # forward 函數的作用是,指定網絡的運行過程,這個全連接網絡可能看不啥意義,
    # 下面的CNN網絡可以看出 forward 的作用。
    x = x.view(-1, self.input_size)
    return self.network(x)
class CNN(nn.Module):
  def __init__(self, input_size, n_feature, output_size):
    # 執行父類的構造函數,所有的網絡都要這么寫
    super(CNN, self).__init__()
    # 下面是網絡里典型結構的一些定義,一般就是卷積和全連接
    # 池化、ReLU一類的不用在這里定義
    self.n_feature = n_feature
    self.conv1 = nn.Conv2d(in_channels=1, out_channels=n_feature, kernel_size=5)
    self.conv2 = nn.Conv2d(n_feature, n_feature, kernel_size=5)
    self.fc1 = nn.Linear(n_feature*4*4, 50)
    self.fc2 = nn.Linear(50,10)

  # 下面的 forward 函數,定義了網絡的結構,按照一定順序,把上面構建的一些結構組織起來
  # 意思就是,conv1, conv2 等等的,可以多次重用
  def forward(self, x, verbose=False):
    x = self.conv1(x)
    x = F.relu(x)
    x = F.max_pool2d(x, kernel_size=2)
    x = self.conv2(x)
    x = F.relu(x)
    x = F.max_pool2d(x, kernel_size=2)
    x = x.view(-1, self.n_feature*4*4)
    x = self.fc1(x)
    x = F.relu(x)
    x = self.fc2(x)
    x = F.log_softmax(x, dim=1)
    return x;

定義和測試函數

# 測試函數
def train(model):
  model.train()
  # 從train_loader里,64個樣本一個batch為單位提取樣本進行訓練
  for batch_idx, (data, target) in enumerate(train_loader):
    data = data.to(device)
    target = target.to(device)
    optimizer.zero_grad()
    output = model(data)
    loss = F.nll_loss(output, target)
    loss.backward()
    optimizer.step()
    if batch_idx % 100 == 0:
      print('Train:[{}/{} ({:.0f}%)]\tLoss:{:.6f}'.format(batch_idx * len(data),len(train_loader.dataset),
        100. * batch_idx / len(train_loader), loss.item()))
  
def test(model):
  model.eval()
  test_loss = 0
  correct = 0
  for data, target in test_loader:
    # 把數據傳入GPU中
    data, target = data.to(device), target.to(device)
    # 把數據送入模型,得到預測結果
    output = model(data)
    # 計算本次batch的損失,並加入到test_loss中
    '''
    output.max(1, keepdim=True)--->返回每一行中最大的元素並返回索引,返回了兩個數組
    output.max(1, keepdim=True)[1] 就是取第二個數組,取索引數組。
    '''
    test_loss += F.nll_loss(output, target, reduction = 'sum').item()
    # get the index of the max log-probability, 最后一層輸出10個數
    # 值最大的那個即對應着分類結果,然后把分類結果保存到pred里
    pred = output.data.max(1, keepdim=True)[1]
    # 將 pred 與 target 相比,得到正確預測結果的數量,並加到 correct 中
    # 這里需要注意一下 view_as ,意思是把 target 變成維度和 pred 一樣的意思   
    correct += pred.eq(target.data.view_as(pred)).cpu().sum().item()

  test_loss /= len(test_loader.dataset)
  accuracy = 100. * correct / len(test_loader.dataset)
  print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
        test_loss, correct, len(test_loader.dataset),
        accuracy))

3. 在小型全連接網絡上訓練

n_hidden = 8
model_fnn = FC2Layer(input_size, n_hidden, output_size)
model_fnn.to(device)
optimizer = optim.SGD(model_fnn.parameters(), lr=0.01, momentum=0.5)
print('Number of parameters: {}'.format(get_n_params(model_fnn)))

train(model_fnn)
test(model_fnn)
'''
Test set: Average loss: 0.4554, Accuracy: 8647/10000 (86%)
'''

4. 在卷積神經網絡上訓練

需要注意的是,上在定義的CNN和全連接網絡,擁有相同數量的模型參數

# training settings
n_features = 6

model_cnn = CNN(input_size, n_features, output_size)
model_cnn.to(device)
optimizer = optim.SGD(model_cnn.parameters(),lr=0.01, momentum=0.5)
print('Number of parameters: {}'.format(get_n_params(model_cnn)))

train(model_cnn)
test(model_cnn)
'''
Test set: Average loss: 0.1227, Accuracy: 9603/10000 (96%)
'''

這里使用的是SGD算法,經測試使用Adam會使得准確率有提升。

可以看到CNN的准確率遠高於簡單的全連接網絡,是因為 CNN 能夠更好的挖掘圖像中的信息,主要通過兩個手段:

  • 卷積:Locality and stationarity in images
  • 池化:Builds in some translation invariance

5.打亂像素順序

考慮到CNN在卷積與池化上的優良特性,如果我們把圖像中的像素打亂順序,這樣 卷積 和 池化 就難以發揮作用了,為了驗證這個想法,我們把圖像中的像素打亂順序再試試。

# 對每個 batch 里的數據,打亂像素順序的函數
def perm_pixel(data, perm):
  # 轉換為二維矩陣
  data_new = data.view(-1, 28*28)
  # 打亂像素順序
  '''
  data_new[:,perm]的意思是按照perm的元素作為data_new的新下標,比如
  perm = [1,3,2], data_new = [2,4,6],則data_new[:,perm]后
  data_new = [2, 6, 4]
  '''
  data_new = data_new[:,perm]
  # 恢復為原來的4維
  data_new = data_new.view(-1, 1, 28, 28)
  return data_new

'''訓練函數和測試函數均在data, target = data.to(device), target.to(device)后加入一行
data = perm_pixel(data, perm)用於打亂像素順序
'''
'''
全連接網絡:Test set: Average loss: 0.4263, Accuracy: 8752/10000 (88%)
CNN網絡:Test set: Average loss: 0.5478, Accuracy: 8257/10000 (83%)
'''

從打亂像素順序的實驗結果來看,全連接網絡的性能基本上沒有發生變化,但是 卷積神經網絡的性能明顯下降。

這是因為對於卷積神經網絡,會利用像素的局部關系,但是打亂順序以后,這些像素間的關系將無法得到利用。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM