【論文學習筆記】無缺陷樣本產品表面缺陷檢測 A Surface Defect Detection Method Based on Positive Samples


文章下載地址:A Surface Defect Detection Method Based on Positive Samples

第一部分  論文中文翻譯

摘要:基於機器視覺的表面缺陷檢測和分類可以大大提高工業生產的效率。利用足夠的已標記圖像,基於卷積神經網絡的缺陷檢測方法已經實現了現有技術的檢測效果。 然而在實際應用中,缺陷樣本或負樣本通常難以預先收集,並且手動標記需要耗費大量時間。本文提出了一種僅基於正樣本訓練的新型缺陷檢測框架。 其檢測原理是建立一個重建網絡,如果它們存在,可以修復樣本中的缺陷區域,然后在輸入樣本和重建樣本之間進行比較,以指示准確的缺陷區域。 我們將GAN和自編碼結合起來重建缺陷圖像,並使用LBP特征進行圖像局部對比以檢測缺陷。在算法的訓練過程中,只需要正樣本,無需缺陷樣本和手動標簽。本文利用織物圖像和DAGM2007數據集進行了驗證實驗。實驗表明,所提出的GAN + LBP算法和具有足夠訓練樣本的監督訓練算法具有較高的檢測精度。 由於其無監督特性,具有較高的實際應用價值。

關鍵詞:Positive samples, Surface defect detection, Autoencoder, GAN

1、介紹

表面缺陷檢測在工業生產過程中起着非常重要的作用。它對市場上最終產品的質量和聲譽產生重大影響。傳統上,表面缺陷由人類目視檢測,這是主觀的,昂貴的,低效的和不准確的。

機器視覺系統可能替代人類視覺,但在實際應用中也遇到許多問題和挑戰,特別是近年間用於區分缺陷和非缺陷的傳統圖像特征是基於經驗手動設計的。傳統圖像特征提取算法的特征通常處於較低水平。在復雜的場景變化(例如照明變化,透視失真,遮擋,物體變形等)的情況下,所提取的特征通常不足以處理它們,因此許多算法在實際環境中不適用。如今,深度學習在提取圖像特征方面表現的非常強大。卷積神經網絡在各種監督問題上都達到了高精度,如分類,目標定位,語義分割等。

Faghih-Roohi等人[1]使用深度卷積神經網絡在軌道表面進行缺陷檢測。它將軌道圖像分為6類,包括1類非缺陷圖像和5類缺陷圖像,然后用DCNN對它們進行分類;劉等人[2]提出了一種two-stage方法,它將選擇性搜索的區域識別和卷積神經網絡結合。它檢測並識別所得區域,然后完成對膠囊表面缺陷的檢測; Yu等人[3]使用兩個FCN[4]語義分割網絡來檢測缺陷。其中一個是粗定位,另一個是精定位。它可以准確地繪制缺陷輪廓,並且在DAGM2007[12]的數據集上實現了比原始FCN更高的精度,並且可以實時完成。

所有上述算法都使用監督學習來檢測缺陷。 在工業檢測的實際應用中需要考慮兩個問題:

訓練樣本中缺少缺陷/負樣本。在實際問題中,訓練樣本中的缺陷圖像總是較少,因為事先很難收集大量的缺陷樣本。因此,訓練過程中的正樣本和負樣本的數量極不平衡,因此生成的模型可能不穩定甚至無效。在缺陷外觀多變且不可預測的場景中,監督學習的檢測方法通常無法達到所需的精度。

手動標注代價高。在實際的缺陷檢測應用中,通常存在許多不同的缺陷,檢測標准和質量指標往往不同。這需要手動標記大量訓練樣本以滿足特定需求,這需要大量人力資源。

針對上述監督學習算法實際應用中存在的問題,提出了一種基於正樣本訓練的缺陷檢測方法。訓練過程只需提供足夠的正樣本,無需提供缺陷樣本,也無需手動標記,可以實現缺陷檢測的效果。

2、相關工作

2.1 基於正樣本的缺陷修復模型

我們提出的模型的靈感來自一系列基於GAN[5]的修復和檢測模型。圖1所示是GAN原理的示意圖。生成器G接收高斯隨機信號以產生圖像,辨別器D接收真或假圖像,並輸出概率為真的圖像。在發生器和鑒別器的連續對抗中,將改善所生成圖像的真實度。

Yeh等人[6]使用GAN進行圖像修復。首先,它使用無缺陷圖片來訓練GAN模型。然后,當修復已知位置缺陷時,我們優化生成器G的輸入z,以便我們可以找到最佳的z,使得y和缺陷圖像的正常部分最大程度接近。圖片y是恢復的圖像。 Schlegl等人[7]基於圖像重建實現缺陷檢測。首先,它使用中間層的重建誤差來完成重建模塊,事先不知道缺陷的位置。其次,重建圖像與原始圖像之間存在差異。如果差異很大,那就是缺陷。由於重建和修復的錯誤,該模型的缺點直接通過差分方法來區分重新配置誤差和小缺陷是很困難的。

這兩個模型的明顯缺點是它們使用梯度優化來找到正確的z,從而進一步獲得修復圖片。這個過程需要耗費大量時間,這是不切實際的。所以我們希望使用autoencoder來復原缺陷圖像。

2.2 Autoencoder 

Pix2pix[8]使用自編碼器與GAN配合解決圖像生成任務。它可以生成清晰逼真的圖像。為了在細節和邊緣部分獲得更好的結果,pix2pix使用跳躍連接結構,如Unet[9]。該結構不適合去除整個缺陷,因此不在我們的模型中使用。一般圖像生成任務是指給黑白圖片上色,將簡單筆畫轉換成照片等任務。我們使用類似的結構來實現缺陷圖像到復原圖像之間的轉換。

在上述研究的基礎上,本文完成了以下工作:(1)我們使用自編碼器來恢復圖像。 我們可以實時完成圖像修復功能,並通過GAN損失提高圖像質量;(2)我們在訓練中使用人工缺陷,並且我們不依賴於大量完整和真實的缺陷樣本和手工標注;(3)我們使用LBP[10]來比較復原的圖像和原始的圖像,從而更准確地找到缺陷的位置。

綜上所述,我們提出了一種缺陷檢測模型,該模型基於無需人工標注的正樣本進行訓練。

3、方案

本文提出的模型的一般框架如圖2所示。在訓練階段,x是從訓練集中隨機拍攝的隨機圖片。 C(x~|x)是一個人工制造缺陷模塊。其功能是自動生成缺陷樣本。 x~是它的輸出。EN和DE構成自動編碼器G。EN是編碼器,DE是解碼器,整個自動編碼器可以看作GAN模型中的生成器。G的任務是找出有缺陷的圖片。D是辨別器,D的輸出是其判別該圖片為正樣本的概率。

在測試階段,我們將測試圖片x輸入到自動編碼器G中,獲得復原的圖像y。然后使用LBP算法提取x和y的特征,並比較x的每個像素的特征,其中x和y之間的特征差異很大的位置即為缺陷。

3.1 Objective

缺陷樣本在經過自編碼器后應該與原始正樣本相同。 這里我們引用pix2pix,使用L1距離來表征它們的相似程度。 L1距離比L2距離更適合不太模糊得圖像。重構誤差定義如下:

如果重構誤差僅用作目標函數,則所獲得圖像的邊緣會模糊並且細節丟失。 根據pix2pix中的實驗,引入了判別網絡,並且可以添加GAN損失以改善圖像模糊問題並增強圖像的精確度。GAN的目標可以表示為:

因此,整體優化目標是找到生成網絡G的參數,並使其滿足要求:

 

λ是平衡GAN損失和重構誤差的參數,其由實驗確定。在某種程度上,GAN損失的引入將與重構誤差競爭,但它可以改善圖像的質量和重要細節的描述。

3.2 網絡結構和人造缺陷

我們提出的模型的網絡結構稱為DCGAN[11]。在生成器和辨別器網絡中,添加了batchnorm層。 LeakyRelu層用於辨別器網絡,Relu層用於生成器網絡。編碼器結構大致類似於辨別器。

在我們的模型中,自動編碼器只需要將原圖修復到最近接近的示例樣本,而不需要知道缺陷的具體形式。因此,當樣本附加足夠的隨機缺陷時,網絡將能夠學習重建圖像的信息。在實際訓練中,我們手動隨機生成塊,位置,大小,灰度值以及添加到圖片中的缺陷塊數量,如圖3所示,訓練網絡自動修復缺陷。

數據增強方面,我們采用0.5和2之間的隨機調整,並在-180和180°之間添加隨機旋轉,並為圖像添加隨機高斯模糊。

3.3 獲取缺陷的位置

由於重建圖像的細節信息上存在一些誤差,我們不應直接划分重建圖像和原始圖像來直接得到缺陷的位置。我們使用LBP[10]算法進行特征提取,然后搜索每個像素周圍最匹配的像素。LBP算法是一種非參數算法,具有光照不變性的特點,適用於密集點。

獲得有缺陷圖像的步驟如圖4所示。原始圖像x和修復圖像y由LBP算法處理得到特征圖x+和y+。對於x+的每個像素點,搜索y+的對應位置處的最近的特征值點,即該像素的點作為匹配點。在兩個匹配點的特征值之間進行比較,得到絕對值。獲得的值越小,則該點是缺陷的可能性越低。然后使用固定閾值二值化,便可以得到缺陷的位置。

4 實驗

4.1 准備

本文使用織物圖片和紋理表面圖片來測試實驗模型的性能。包括3種織物圖片和1種紋理表面圖片。織物的圖像來自數據庫[13],紋理表面圖像來自DAGM 2007[12]的數據集。在本文中,我們比較了監督語義分割模型[4]和本文提出的缺陷檢測模型。

開發環境如下:CPU:Intel®Xeon(R)E5620@2.40GHZ * 16,GPU:GTX1080,內存:16 G,python 2.7.12和mxnet。 我們通過Adam進行訓練,並將初始學習率設置為0.0002,並將批量大小設置為64。

4.2 結論

我們使用整張圖片的平均准確性作為實驗中模型性能的評估指標。

紋理表面:紋理表面具有良好的一致性,因此他們在訓練集上有足夠的缺陷樣本來學習(表1和表2)。

圖5所示為缺陷檢測結果的示例。

 

織物圖片:由於真實場景中織物樣本的形式不同,訓練集中的缺陷樣本相對稀少。在該實驗中存在5種類型的缺陷,每類缺陷有5張圖片,還有25張正樣本。對於監督語義分割模型,每種形式的缺陷圖像中的3個用作訓練集,並且2用作測試集(表3和4)。

 

 

如圖6所示,它是一些缺陷檢測結果的例子。

實驗表明,在規則模式背景下,當標記缺陷樣本足夠時,我們模型的准確性和監督語義分割接近,當帶有注釋的缺陷樣本不充足時,我們的模型可以獲得更高的精度。在時間消耗方面,我們的模型可以實現實時檢測。

 

5 結論

在本文中,我們結合自動編碼器和GAN,提出了一種基於正樣本訓練的缺陷檢測模型,無需人工標簽。 在訓練中,結合人工缺陷和數據增強方法,該模型可以自動修復圖案規則的紋理圖像的缺陷,並通過比較原始圖像和修復圖像的特征來獲得缺陷的具體位置。可以在織物圖像和紋理平面上實時檢測缺陷的位置。此外,當訓練缺陷實例很少時,我們可以獲得比監督語義分割更好的結果。

如果背景過於復雜和隨機,則自動編碼器重建和修復圖像是很困難的。相關的缺陷檢測問題將來還有待研究。

致謝:這項工作得到了國家自然科學基金深圳聯合基金支持的重點項目(Gran No. U1613217)的部分支持。

 

參考文獻:

1. Faghih-Roohi, S., et al.: Deep convolutional neural networks for detection of rail surface defects. In: International Joint Conference on Neural Networks. IEEE (2016)

2. Liu, R., et al.: Region-convolutional neural network for detecting capsule surface defects. Boletín Técnico 55(3), 92–100 (2017)

3. Yu, Z., Wu, X., Gu, X.: Fully Convolutional networks for surface defect inspection in industrial environment. In: Liu, M., Chen, H., Vincze, M. (eds.) ICVS 2017. LNCS, vol. 10528, pp. 417–426. Springer, Cham (2017). https://doi.org/10.1007/978-3-319-68345 4_37

4. Long, J., Shelhamer, E., Darrell, T.: Fully convolutional networks for semantic segmentation. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 3431–3440 (2015)

5. Goodfellow, I., et al.: Generative adversarial nets. In: Advances in Neural Information Processing Systems (2014)

6. Yeh, R., et al.: Semantic image inpainting with perceptual and contextual losses (2016). arXiv preprint arXiv:1607.07539

7. Schlegl, T., Seeböck, P., Waldstein, Sebastian M., Schmidt-Erfurth, U., Langs, G.:Unsupervised anomaly detection with generative adversarial networks to guide marker discovery. In: Niethammer, M., Styner, M., Aylward, S., Zhu, H., Oguz, I., Yap, P.-T., Shen, D. (eds.) IPMI 2017. LNCS, vol. 10265, pp. 146–157. Springer, Cham (2017). https://doi.org/ 10.1007/978-3-319-59050-9_12

8. Isola, P., et al.: Image-to-image translation with conditional adversarial networks (2017). arXiv preprint 

9. Ronneberger, O., Fischer, P., Brox, T.: U-Net: convolutional networks for biomedical image segmentation. In: Navab, N., Hornegger, J., Wells, W.M., Frangi, A.F. (eds.) MICCAI 2015. LNCS, vol. 9351, pp. 234–241. Springer, Cham (2015). https://doi.org/ 10.1007/978-3-319-24574-4_28

10. Ojala, T., Pietikäinen, M., Harwood, D.: A comparative study of texture measures with classification based on featured distributions. Pattern Recogn. 29(1), 51–596 (1996)

11. Radford, A., Luke M., Chintala, S.: Unsupervised representation learning with deep convolutional generative adversarial networks (2015). arXiv preprint arXiv:1511.06434

12. HCI: Weakly Supervised Learning for Industrial Optical Inspection. https://hci.iwr.uniheidelberg.de/node/3616. Accessed 13 Nov 2017

13. Ngan, H.Y.T., Pang, G.K.H., Yung, N.H.C.: Automated fabric defect detection—a review. Image Vis. Comput. 29(7), 442–458 (2011)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM