tf.keras 的預訓練模型都放在了'tensorflow.python.keras.applications' 目錄下,在 tensorflow 1.10 版本中,預訓練好的模型有:
DenseNet121, DenseNet169, DenseNet201, InceptionResNetV2, InceptionV3, MobileNet, NASNetLarge, NASNetMobile, ResNet50, VGG16, VGG19, Xception.
找了半天,發現 keras 沒有預訓練好的 AlexNet。。。
所以本文提供一種從其它框架(如 PyTorch)導入預訓練模型的方法,下面以 AlexNet 為例。代碼參見 wuliytTaotao · Github。
從 PyTorch 中導出模型參數
首先明白一點,當模型的結構一樣時,我們只需要導入模型的參數即可復現模型,所以我們要做的就是從 PyTorch 中導出預訓練好的模型參數,並用 keras 加載。
這里要介紹一個微軟的項目:MMdnn。MMdnn 使我們可以在不同深度學習框架之間轉換模型,這里我也使用 MMdnn 來轉換 AlexNet(PyTorch to Keras)。
第 0 步:配置環境
必須一致配置:
- PyTorch: 0.4.0 (如果其它版本出現了問題,請退回到 0.4.0 版)
非必須一致配置:
- numpy: 1.14.5
- Keras: 2.1.3 (非 tensorflow 中的 keras)
第 1 步:安裝 MMdnn
$ pip3 install mmdnn
我安裝的 mmdnn 版本為 0.2.5。
其它安裝方式請參考 github。
第 2 步:得到 PyTorch 保存完整結構和參數的模型(pth 文件)
PyTorch 保存模型時,可以保存整個模型,也可以僅保存模型的參數,都是存放到 pth 文件中。
mmdnn 操作的 pth 文件是要求含有模型結構的,具體參見 FAQ,而在 PyTorch 中預訓練 AlexNet 僅保存了參數。
通過以下程序得到包含有模型結構和權重的 AlexNet 預訓練模型(pth 文件):
import torch
import torchvision
m = torchvision.models.alexnet(pretrained=True)
torch.save(m, './alexnet.pth')
對於其它模型,如 resnet101,可以通過以下指令直接得到含有結構和權重的預訓練模型:
$ mmdownload -f pytorch -n resnet101 -o ./
(不要通過上述指令得到 alexnet.pth,因為其僅僅包含權重,而不含結構,故后面一步會出現錯誤 "AttributeError: 'collections.OrderedDict' object has no attribute 'state_dict'"。)
第 3 步:導出 PyTorch 模型的參數,保存至 hdf5 文件
依次執行以下三條指令,最后會得到一個 'keras_alexnet.h5' 文件,這就是我們想要的 keras 能加載的預訓練權重文件。
$ mmtoir -f pytorch -d alexnet --inputShape 3,227,227 -n alexnet.pth
IR network structure is saved as [alexnet.json].
IR network structure is saved as [alexnet.pb].
IR weights are saved as [alexnet.npy].
$ mmtocode -f keras --IRModelPath alexnet.pb --IRWeightPath alexnet.npy --dstModelPath keras_alexnet.py
Using TensorFlow backend.
Parse file [alexnet.pb] with binary format successfully.
Target network code snippet is saved as [keras_alexnet.py].
$ python3 -m mmdnn.conversion.examples.keras.imagenet_test -n keras_alexnet.py -w alexnet.npy --dump keras_alexnet.h5
Using TensorFlow backend.
Keras model file is saved as [keras_alexnet.h5], generated by [keras_alexnet.py.py] and [alexnet.npy].
可能遇到的問題
- AttributeError: 'Conv2d' object has no attribute 'padding_mode'
Solution:PyTorch 版本問題,1.1.0 版會出現這個問題,回退到 0.4.0 版本即可。
$ pip install -i https://pypi.tuna.tsinghua.edu.cn/simple --upgrade torch==0.4.0 torchvision==0.2.0
Solution:請更改 numpy 版本。
Solution:pth 文件僅含模型參數而不含模型結構,在 PyTorch 中加載一下然后保存含有模型結構和參數的 pth 文件。
驗證從 PyTorch 導出的 AlexNet 預訓練模型
測試用的幾張圖片、代碼以及生成的 keras_alexnet.h5 文件都存放到了 wuliytTaotao · Github。
import torch
import torchvision
import cv2
import numpy as np
from torch.autograd import Variable
import tensorflow as tf
from tensorflow.keras import layers,regularizers
filename_test = 'data/dog2.png'
img = cv2.imread(filename_test)
img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
# 數據預處理
img = cv2.resize(img, (227, 227))
img = img / 255.0
img = np.reshape(img, (1, 227, 227, 3))
# 標准化,這是 PyTorch 預訓練 AlexNet 模型的預處理方式,詳情請見 https://pytorch.org/docs/stable/torchvision/models.html
mean = np.array([0.485, 0.456, 0.406]).reshape([1, 1, 1, 3])
std = np.array([0.229, 0.224, 0.225]).reshape([1, 1, 1, 3])
img = (img - mean) / std
# PyTorch
# PyTorch 數據輸入 channel 排列和 Keras 不一致
img_tmp = np.transpose(img, (0, 3, 1, 2))
model = torchvision.models.alexnet(pretrained=True)
# torch.save(model, './model/alexnet.pth')
model = model.double()
model.eval()
y = model(Variable(torch.tensor(img_tmp)))
# 預測的類別
print(np.argmax(y.detach().numpy()))
# Keras
def get_AlexNet(num_classes=1000, drop_rate=0.5):
"""
PyTorch 中實現的 AlexNet 預訓練模型結構,filter 的深度分別為:(64,192,384,256,256)。
返回 AlexNet 的 inputs 和 outputs
"""
inputs = layers.Input(shape=[227, 227, 3])
conv1 = layers.Conv2D(64, (11, 11), strides=(4, 4), padding='valid', activation='relu')(inputs)
pool1 = layers.MaxPooling2D(pool_size=(3, 3), strides=(2, 2))(conv1)
conv2 = layers.Conv2D(192, (5, 5), strides=(1, 1), padding='same', activation='relu')(pool1)
pool2 = layers.MaxPooling2D(pool_size=(3, 3), strides=(2, 2))(conv2)
conv3 = layers.Conv2D(384, (3, 3), strides=(1, 1), padding='same', activation='relu')(pool2)
conv4 = layers.Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu')(conv3)
conv5 = layers.Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu')(conv4)
pool3 = layers.MaxPooling2D(pool_size=(3, 3), strides=(2, 2))(conv5)
flat = layers.Flatten()(pool3)
dense1 = layers.Dense(4096, activation='relu')(flat)
dense1 = layers.Dropout(drop_rate)(dense1)
dense2 = layers.Dense(4096, activation='relu')(dense1)
dense2 = layers.Dropout(drop_rate)(dense2)
outputs = layers.Dense(num_classes, activation='softmax')(dense2)
return inputs, outputs
inputs, outputs = get_AlexNet()
model2 = tf.keras.Model(inputs, outputs)
model2.load_weights('./keras_alexnet.h5')
# 預測的類別
print(np.argmax(model2.predict(img)))
預測結果代表的類別請看博客 ImageNet圖像庫1000個類別名稱(中文注釋不斷更新)。
Attentions
PyTorch 中的預訓練 AlexNet 模型卷積層 filter 的個數和原論文不一致,filter 的個數分別 \(64,192,384,256,256\)。具體參見 GitHub - pytorch: vision/torchvision/models/alexnet.py
PyTorch 給出的解釋是,它的預訓練 AlexNet 模型用的是論文 Krizhevsky, A. (2014). One weird trick for parallelizing convolutional neural networks. arXiv preprint arXiv:1404.5997. 給出的架構,但 PyTorch 的模型架構和這篇論文還是有區別,這篇論文中第四個卷積層 filter 個數為 384,而 PyTorch 為 256。
而 caffe 中實現的 AlexNet 含有原始的 LRN 層,去掉 LRN 層后,個人感覺預訓練的權重就不能直接拿來用了。
References
PyTorch
GitHub - microsoft/MMdnn
GitHub - pytorch: vision/torchvision/models/alexnet.py
ImageNet圖像庫1000個類別名稱(中文注釋不斷更新)-- 徐小妹