zz2019年主動學習有哪些進展?答案在這三篇論文里


2019年主動學習有哪些進展?答案在這三篇論文里

目前推廣應用的機器學習方法或模型主要解決分類問題,即給定一組數據(文本、圖像、視頻等),判斷數據類別或將同類數據歸類等,訓練過程依賴於已標注類別的訓練數據集。在實驗條件下,這些方法或模型可以通過大規模的訓練集獲得較好的處理效果。然而在應用場景下,能夠得到的數據實際上都沒有進行人工標注處理,對這些數據進行類別標注所耗費的人力成本和時間成本非常巨大。在一些專門的應用領域,例如醫學圖像處理,只有專門學科的專業醫生能夠完成對醫學影像圖像的數據標注。顯然,在這種情況下必須依賴大規模訓練集才能使用的方法或模型都不再適用。為了減少對已標注數據的依賴,研究人員提出了主動學習(Active Learning)方法。主動學習通過某種策略找到未進行類別標注的樣本數據中最有價值的數據,交由專家進行人工標注后,將標注數據及其類別標簽納入到訓練集中迭代優化分類模型,改進模型的處理效果。 

根據最有價值樣本數據的獲取方式區分,當前主動學習方法主要包括基於池的 查詢獲取方法 (query-acquiring/pool-based)和 查詢合成方法 (query-synthesizing)兩種。近年來提出的主動學習主要都是查詢獲取方法,即通過設計查詢策略(抽樣規則)來選擇最具有價值信息的樣本數據。與查詢獲取方法「選擇(select)」樣本的處理方式不同,查詢合成方法「生成(generate)」樣本。查詢合成方法利用生成模型,例如生成式對抗網絡(GAN, Generative Adversarial Networks)等,直接生成樣本數據用於模型訓練。 

我們從 2019 年機器學習會議中選出三篇關於主動學習方法的文章進行針對性的分析,這三篇文章為: 

  1. Learning loss for active learning(CVPR 2019,oral)

  2. Variational Adversarial Active Learning (ICCV 2019,oral)

  3. Bayesian Generative Active Deep Learning (ICML 2019)

其中,前兩篇提出基於池的查詢獲取方法:《Learning loss for active learning》通過添加損失函數設計一種任務不可知的主動學習方法,《Variational Adversarial Active Learning》設計了一種利用 VAE 和對抗網絡來學習潛在空間中已標注數據分布情況的查詢策略。第三篇 ICML 的文章《Bayesian Generative Active Deep Learning》介紹了一種利用對抗性網絡的查詢合成方法。 

1. Learning Loss for Active Learning(CVPR 2019)

原文地址:https://arxiv.org/abs/1905.03677?context=cs.CV

主動學習的一個研究熱點為抽樣策略(准則)的設計,即通過改進樣本不確定性度量方式、引入委員會投票模式、采用期望誤差以及考慮多樣性准則等方法,設計主動學習的抽樣策略(准則)。然而,由於不同的機器學習任務不同,使用的數據特征不同等問題,抽樣策略(准則)一般是針對目標任務進行設計,不具備普適性,例如在某一類機器學習任務中效果好的模型(例如文本分析),直接應用在其它任務中效果很差(例如圖像分類)。 

來自韓國 KAIST 的兩位學者提出了一種新的主動學習方法:學習損失函數的主動學習模型(Learning Loss for Active Learning)。本文的思路主要來源於深度學習,即不管任務是什么、任務量有多大以及任務的體系結構有多么復雜,學習目的就是最小化損失函數而與具體任務無關。本文提出的主動學習方法引入一個「損失預測模塊」,通過學習損失預測模塊來估計未標注數據的損失值。無論目標任務是什么,模型都執行同樣的損失函數優化,因此損失預測模塊是任務不可知的,該方法可以應用於任何使用深度網絡的機器學習。 

本文貢獻包括:

  1. 提出了一種簡單而有效的主動學習方法,該方法具有損失預測模塊,可直接應用於深度網絡的任何任務。 

  2. 利用現有的網絡體系結構,通過分類、回歸和混合三個學習任務來評估所提出的方法。

算法分析

本文提出的學習損失函數的主動學習模型主要由兩部分組成:目標模塊和損失預測模塊。其中目標模塊的函數為: 

x 表示輸入樣本數據。損失預測模塊的預測函數為:

h 表示從目標模塊的多個隱藏層中提取的樣本數據 x 的特征集。初始化已標注數據集后,通過學習得到初始化目標函數和損失預測函數。在主動學習過程中,利用損失預測模塊對未標注池中的所有數據進行評估,得到數據損失對之后人工標注 K 個損失最大的數據(Top-K),更新已標注數據集,重復循環,直到達到滿意的性能。圖 1 給出本文算法的處理過程。其中圖 1(a)表示利用目標模塊基於輸入數據生成目標預測值,利用損失預測模塊基於目標模塊的隱藏層生成損失預測值。圖 1(b)表示利用損失預測模塊評估未標注數據集中的數據,找到 Top-K 預測損失值的數據,完成專家人工標注后將這些數據及類別信息添加到已標注的訓練集中。 

 

圖1: 帶有一個損失預測模塊的主動學習新方法。 

損失預測模塊是本文算法的核心,其目標是最大限度地降低主動學習過程中針對不確定性的學習成本。損失預測模塊的特點為(1)比目標模塊小得多(2)與目標模塊同時學習,無需增加額外學習過程。損失預測模塊的輸入為目標模塊的中間層提取的多層特征映射,這些多重連接的特征值使得損耗預測模塊能夠有效利用層間的有用信息進行損失預測。 

首先,通過一個全局平均池(global average pooling, GAP)層和一個全連接層(full connected layer,FC),將每個輸入特征映射簡化為一個固定維度的特征向量。然后,連接所有特征並輸入另一個全連接層,產生一個標量值作為預測損失。損失預測模塊的結構見圖 2。損失預測模塊與目標模塊的多個層次相連接,將多級特征融合並映射到一個標量值作為損失預測。 

圖2: 損失預測模塊的架構

最后,討論損失預測模塊的計算方式。損失預測模塊的計算公式如下:

第一部分為目標模塊的目標注釋值與預測值之間的損失值,第二部分為損失預測模塊計算得到的損失值。給定輸入,目標模型輸出目標預測,損失預測模塊輸出預測損失。目標預測和目標注釋用於計算目標損失,從而完成目標模型的學習。此外,目標損失還將作為損失預測模塊的真值損失,用於計算預測損失。具體計算過程見圖 3。

圖3: 學習損失的方法

本文沒有直接使用均方誤差(the mean square error,MSE) 定義損失函數,而是進行樣本數據對的比較。給定大小為 B 的小批量數據集,能夠生成 B/2 個數據對,例如 

下標 P 表示一個數據對,B 應該是一個偶數。然后,通過考慮一對損失預測之間的差異來學習損失預測模塊:

給定小批量 B,同時學習目標模塊和損失預測模塊的損失函數為: 

s.t.:1)目標模型;2)loss 預測模型;3)真實 loss;

c.f.:LTR里面的 point wise, pair wise, list wise —— 一對損失預測之間的差異

? point wise 行不行?不行,因為真值(真模型)不知道;

? list wise 行不行?行 —— 難度用 NDCG 這種評判指標?

 

再一個問題:這樣 pair wise (包括剛開始學到的不太准確的隱層狀態 h ),heuristic 的程度有多大?有沒有可能造成一開始的偏差?>>> 

有沒有一個界,來評估和衡量?完全只靠做實驗?

 

 

實驗結果

為了驗證該方法的任務普適性,本文選擇了三個目標任務進行實驗,包括圖像分類(分類任務),目標檢測(分類和回歸的混合任務),人體姿態估計(典型回歸問題)。 

圖像分類

實驗結果見圖 4。

  • 數據庫:本文選擇 CIFAR-10數據庫,使用其中 50000 張圖片作為訓練集、10000 張圖片作為測試集。由於訓練集數據量非常大,本文在每個主動學習循環階段選擇一個隨機子集(大小為 10000),從中選取 K 最不確定樣本。 

  • 目標模塊:ResNet-18。

  • 損失預測模塊:ResNet-18 由 4 個基本塊組成 {convi_1; convi_2 j| i=2; 3; 4; 5},每個模塊有兩層。將損失預測模塊連接到每個基本塊,利用塊中的 4 個特性來估計損失。

  • 實驗對比算法:隨機抽樣(random sampling),基於熵的采樣(entropy-based sampling),芯組采樣(core-set sampling)。

圖4: CIFAR-10上的主動學習圖像分類結果 

圖 4 中每個點均為使用不同的初始標記數據集進行 5 次實驗的平均值。由實驗結果可知,本文提出的算法在 CIFAR-10 庫中的效果最好。

目標檢測

實驗結果見圖 5。

  • 數據庫:本文選擇 PASCAL VOC 2007+2010數據庫。由於訓練集數據量不大,實驗不需選擇隨機子集抽取 K 最不確定樣本。 

  • 目標模塊:Single Shot Multibox Detector (SSD)。 

  • 損失預測模塊:SSD從 6 級特征映射中提取邊界框及其類 {convi | i=4_3; 7; 8_2; 9_2; 10_2; 11_2}。將損失預測模塊連接到每個基本塊,利用塊中的 6 個特性來估計損失。 

  • 實驗對比算法:隨機抽樣(random sampling),基於熵的采樣(entropy-based sampling),芯組采樣(core-set sampling)。

圖5: 在PASCAL VOC 2007+2012上的主動學習目標檢測結果 

圖 5 中每個點均為使用不同的初始標注數據集進行 3 次實驗的平均值。由實驗結果可知,本文提出的算法在 PASCAL VOC 庫中的效果最好。

人體姿態估計

實驗結果見圖 6。

  • 數據庫:本文選擇 MPII數據庫。由於訓練集數據量非常大,本文在每個主動學習循環階段選擇一個隨機子集(大小為 5000),從中選取 K 最不確定樣本。 

  • 目標模塊:Stacked Hourglass Networks。

  • 損失預測模塊:Stacked Hourglass Networks 的特征圖為 (H,W,C)=(64,64,256)。本文使用兩個特征圖,將損失預測模塊連接到每個圖中,利用 2 個特性來估計損失。

  • 實驗對比算法:隨機抽樣(random sampling),基於熵的采樣(entropy-based sampling),芯組采樣(core-set sampling)。

圖6: 在MPII上人體姿態估計的主動學習結果 

圖 6 中每個點均為使用不同的初始標注數據集進行 3 次實驗的平均值。由實驗結果可知,本文提出的算法在 MPII 庫中的效果最好。

圖 7 為本文提出的算法在不同數據庫中損失預測的准確度。對於一對數據點,如果預測結果為真,我們給出 1 分,否則給出 0 分。由圖 7 可知,使用本文的預測函數效果優於 MSE。本文提出的損失預測模塊預測的回歸損失在不同任務中的准確度分別約為 90%、70%、75%。 

圖8: 損失預測模塊的損失預測准確率 

總結與分析

本文提出了一種新的主動學習方法,適用於當前各類深度學習網絡。本文通過三個主要的視覺識別任務和流行的網絡結構驗證了方法的有效性。雖然實驗結果證明了該方法有效,但在該方法在抽樣策略中並沒有考慮數據的多樣性或密度等特征。此外,在目標檢測和姿態估計等復雜任務中,損失預測准確度相對較低(如圖 8 分析),這些都將是后期的研究重點。 

2、Variational Adversarial Active Learning (ICCV 2019,oral)

原文地址:https://arxiv.org/pdf/1904.00370

本文提出了一種使用變分自動編碼器(VAE)和對抗網絡來學習已標注數據在潛在空間中分布情況的主動學習模型(Variational adversarial active learning,VAAL)。在 VAE 和對抗網絡之間進行的極大極小博弈過程中,訓練 VAE 欺騙對抗網絡將所有數據都預測為已標注數據;訓練對抗網絡區分潛在空間中不同類型數據的分布情況,從而區分已標注數據和未標注數據。VAAL 的整體結構見圖 1。 

圖1: 該模型使用VAE算法學習了標記數據在潛在空間中的分布,該算法采用了重建和對抗損失兩種優化方法

算法分析

首先,本文使用 VAE 學習潛在空間中已標注數據和未標注數據的表示,其中編碼器使用高斯先驗函數學習底層分布的低維空間,解碼器重建數據。VAE 的目標函數為最小化給定樣本邊際似然概率的變分下界: 

L:labelled

U:unlabelled

公式出處:

《Auto-encoding Variational Bayes》閱讀筆記

 
   
   
   

 

 

VAE 原理介紹:

https://mp.weixin.qq.com/s?__biz=MzA5MDMwMTIyNQ==&mid=2649286039&idx=1&sn=466248f91adf75fa5b3890d0b00e4726#rd

 

 

 
   
   
   
   
   
   

 

 

 

 

 

 

 

 

 

 

 

 

 
   
   
   
   
   
   

 

 

 

其中 p 和 q 分別表示編碼器和解碼器,p(z) 為高斯先驗知識。由 VAE 學習的潛在空間表示是已標注數據和未標注數據相關的潛在特征的混合。 

第二步,本文的抽樣策略為訓練一個對抗性網絡,以學習如何區分隱藏空間中不同類別數據的編碼特征。訓練對抗網絡,將潛在表示映射為二進制標簽:如果樣本數據為已標注,則為 1,否則為 0。 

在上一步處理中,VAE 將已標注和未標注的數據映射到具有相似概率分布的同一潛在空間,它愚弄鑒別器將所有輸入均定義為已標注的數據。另一方面,鑒別器則試圖有效地估計該數據屬於未標注數據的概率。關於 VAE 的對抗角色目標函數表述為: 

其中 L_bce 為簡單的二元交叉熵成本函數。由上面的分析,VAAL 中 VAE 的完整目標函數如下: 

由於參與數據標注的人員專業性水平不同,專家標注(Oracle)的結果並不完全可靠。本文假設存在兩種類型的 Oracle:一種是理想的 Oracle,它總是能夠提供正確的標簽;另一種是有噪聲的 Oracle,它非自願地為某些特定的類提供錯誤的標簽。為了更加真實地評估有噪聲 Oracle 情況下 VAAL 的效果,本文添加目標噪聲,使用與鑒別器預測相關的概率作為一個打分項,收集每批樣本中置信度最低的 B 個樣本發送給 Oracle。

實驗結果

本文實驗條件為:初始訓練集中已標注和未標注數據的比例為 10%、90%。從未標注數據集中選擇需要由 Oracle 標注的樣本,標注完畢后將這些數據添加到初始訓練集中,並在新的訓練集中重復訓練。

實驗通過准確度和平均 IoU 來評估 VAAL 在圖像分類和分割中的性能,當有 Oracle 提供的標簽可用時,分別以訓練集的 10%、15%、20%、25%、30%、35%、40% 的比例進行訓練。除 ImageNet 外,最終結果均為 5 次實驗結果的平均值。ImageNet 中的結果則為使用 10%、15%、20%、25%、30% 的訓練數據 2 次實驗結果的平均值。 

圖像分類

實驗結果見圖 2。

  • 數據庫:CIFAR10、CIFAR100、Caltech-256、ImageNet。 

  • 對比算法:random sampling、Core-set、Monte-CarloDropout、Ensembles using Variation Ratios、Deep Bayesian AL(DBAL)。 

在 CIFAR-10 上,VAAL 使用 40% 的樣本數據達到了 80.9% 的平均准確度,而使用整個樣本數據集得到的准確度為 90.16%。在 CIFAR-100 上,VAAL 與 Ensembles w. VarR 和 Core-set 都獲得較好效果,並且優於所有其他基線。在擁有類別真實圖像的 Caltech-256 上,VAAL 始終優於其它算法,超過 Core-set 1.01%。在大規模數據集 ImageNet 中的實驗結果證明了 VAAL 的可擴展性。由圖 2 實驗可知,VAAL 在圖像分類實驗中准確度最高,在獲得同樣准確度的情況下 VAAL 所需的樣本數量最少。 

圖像分割

實驗結果見圖 3。

  • 數據庫:BDD100K、Cityscapes。 

  • 對比算法:random sampling、Core-set、Monte-CarloDropout、 Query-By-Committee (QBC)、suggestive annotation (SA)。 

圖3: 與QBC、Core-set、MC-Dropout和Random Sampling相比,使用Cityscapes和BDD100K的VAAL在分割任務上的性能更好 

在已標注數據比率不同的情況下,VAAL 在 Cityscapes 和 BDD100K 兩個數據庫中都能獲得最高的平均 IoU。VAAL 僅使用 40% 的標注數據就可以實現 57.2 和 42.3 的%mIoU。當使用 100% 標注數據的情況下,VAAL 在 Cityscapes 和 BDD100K 兩個數據庫中可以達到 62.95 和 44.95 的%mIoU。 

進一步,本文在 BDD100K 庫中進行實驗,以驗證本文方法中所采用的 VAE 和鑒別器的有效性。實驗考慮三種情況:1)取消 VAE;2)給定一個鑒別器,固定 VAE;3)取消鑒別器。實驗結果見圖 4。

圖4: 分析VAE和鑒別器效果的控制變量結果。

實驗結果表明,由於鑒別器只用於存儲數據,僅采用鑒別器的模型處理效果最差。VAE 除了能夠學習潛在空間,還能夠利用鑒別器進行最小-最大博弈,從而避免過度擬合。而 VAAL 能夠有效學習 VAE 和鑒別器之間對抗性博弈的不確定性,實驗效果最優。

最后,本文給出了 CIFAR100 庫中初始標注偏移情況(bias)、預期規模(budget)、噪聲 oralce 對 VAAL 的影響,實驗結果見圖 5,實驗證明了 VAAL 對不同參數的魯棒性。 

圖5: 使用CIFAR100分析VAAL對噪聲標簽、預算大小和有偏初始標簽池的魯棒性。

總結與分析

VAAL 的關鍵是以一種對抗性的方式同時學習 VAE 和對抗性網絡,從而找到最有價值的抽樣策略(准則)。本文基於各種圖像分類和語義分割基准數據集對 VAAL 進行了廣泛評估,VAAL 在 CIFAR10/100、CALTECH-256、IMAGENET、CITYSCAPE 和 BDD100K 上均獲得了較好的效果。實驗結果表明,本文的對抗性方法在大規模數據集中能夠學習有效的低維潛在空間,並提供計算有效的抽樣策略。 

3、Bayesian Generative Active Deep Learning(ICML 2019)

原文地址: https://arxiv.org/pdf/1904.11643.pdf

本文提出了一種新的貝葉斯生成式主動深度學習模型,該模型的目標是用生成的樣本擴充已標注數據集,而這些生成樣本對訓練過程具有一定的參考價值。本文使用貝葉斯不一致主動學習(Bayesian active learning by disagreement,BALD)從未標注數據集中抽樣,樣本進行專家標注后使用對抗性模型 VAE-ACGAN((variational autoencoder,VAE)-(auxiliary-classifier generative adversarial networks,ACGAN))處理,生成與輸入樣本具有相似信息的新人工樣本。將新樣本添加到已標注數據集中,供模型迭代訓練使用。 

本文的研究主要受到最近提出的一種生成性對抗性主動學習方法(Generative adversarial active learning,GAAL)(Zhu and Bento, 2017 (https://arxiv.org/abs/1702.07956v5)) 啟發,不同於傳統的根據抽樣策略選擇信息量最大樣本的主動學習方法,GAAL 依靠一個優化問題生成新樣本(這種優化平衡了樣本信息性和圖像生成質量)。本文提出的貝葉斯生成式主動深度學習模型利用傳統的基於池的主動學習方法選擇樣本,之后利用生成性對抗模型生成樣本。傳統的基於池方法、GAAL 和本文模型的對比圖示見圖 1。 

圖1: (基於池)的主動學習的對比 

2.2. Data Augmentation

In active learning, it is assumed that a model can be trained with a small data set. That assumption is challenging in the estimation of a deep learning model since it often re- quires large labeled data sets to avoid over-fitting. One reasonable way to increase the labeled training set is with data augmentation that artificially generates new synthetic training samples (Krizhevsky et al., 2012). Gal et al. (2017) also emphasized the importance of data augmentation for the development of deep active learning. Data augmenta- tion can be performed with “label-preserving” transforma- tions (Krizhevsky et al., 2012; Simard et al., 2003; Yaeger et al., 1996) – this is known as “poor’s man” data augmen- tation (PMDA) (Tanner, 1991; Tran et al., 2017). Alter- natively, Bayesian data augmentation (BDA) trains a deep generative model (using the training set), which is then used to produce new artificial training samples (Tran et al.,2017). Compared to PMDA, BDA has been shown to have a better theoretical foundation and to be more beneficial in

 

practice (Tran et al., 2017). One of the drawbacks of data augmentation is that the generation of new training points is driven by the likelihood that the generated samples belong to the training set – this implies that the model produces samples that are likely to be close to the generative distribu- tion mode. Unfortunately, as the training process progresses, these points are the ones more likely to be correctly classi- fied by classifier, and as a result they are not informative. The combination of active learning and data augmentation proposed in this paper addresses the issue above, where the goal is to continuously generate informative training samples that not only are likely to belong to the learned gen- erative distribution, but are also informative for the training process – see Fig. 2.  

 

 

算法分析

與 GAAL 不同,本文方法首先利用基於池的方法(BALD)選擇出信息量最大的樣本,具體公式為:

其中 a(x ;M) 為抽樣策略函數,使用香農熵表征預測值和分布情況。樣本 x 被標記為 y 后進入樣本庫用於后續訓練。具體抽樣函數使用 Monte Carlo (MC) dropout 方法:

f 表示在 t 次迭代時從后驗估計中取樣的網絡函數。

在建立生成模型主動生成樣本數據的過程中,本文沒有像 GAAL 一樣直接應用 GAN,而是借鑒了數據增加(data augmentation)的理念,采用了貝葉斯數據增加(Bayesian Data Augmentation,BDA)模型。BDA 模型包括一個生成器(用於從潛在空間中生成新的訓練樣本)、鑒別器(區分真實和虛假樣本)和分類器(確定樣本類別)。首先,給定一個潛在變量 u 和類別標簽 y,用函數 g 表示生成函數,將 (u,y)映射為點 x=g(u,y),之后已標注的數據 x 以(x,y)格式加入到訓練集中。本文對 BDA 進行改進,在樣本生成階段不使用潛在變量 u 和類別標簽 y,而是使用樣本 x 和類別標簽 y,即樣本 x 直接推送到 VAE 中: 

VAE 的訓練過程通過最小化重建損失實現。此外,本文證明了從信息量最大的樣本中生成的樣本同樣具有信息量。

本文的主要貢獻是通過結合 BALD 和 BDA,有效生成對訓練過程有參考意義的新的標記樣本。本文模型的結構見圖 2。

圖2: 本文所提出模型的網絡架構

由圖 2 可知,本文提出的模型由四部分組成:分類器、編碼器、解碼器/生成器、鑒別器。其中分類器可使用主流的各種深度卷積神經網絡分類器,這使得該模型具有很好的靈活性,可以有效利用各種優秀分類器。生成器部分本文使用的是 ACGAN 和 VAE-GAN。將 VAE 的重建誤差引入 GAN 的損失函數中構成 VAE-ACGAN 的損失函數,實現對 GAN 訓練過程中的不現實性和模式崩潰進行懲罰。VAE-ACGAN 的損失函數為: 

其中 VAE 損失表示為重建損失 Lrec 和正則化先驗 Lprior 的組合: 

ACGAN損失函數則為: 

實驗結果

本文根據 Top-1 精度測量的分類性能評估貝葉斯生成式主動深層學習模型的效果。

  • 實驗對比的方法包括:貝葉斯生成式主動深層學習模型(AL w. VAEACGAN)、使用 BDA 的主動學習模型(AL w. ACGAN)、未使用數據增加處理的 BALD(AL without DA)、未使用主動學習方法的 BDA(BDA)以及隨機生成樣本的方法。 

  • 實驗數據庫:MNIST、CIFAR-10、CIFAR-100、SVHN。 

  • 實驗中使用的分類器:ResNet18、ResNet18pa。

圖3: 訓練和分類性能

圖 3 給出了在采集初始訓練集迭代次數、樣本百分比不同的情況下各個模型的實驗結果。圖 3 中曲線的每個點表示一次采集迭代的結果,其中每個新點表示訓練集的增長百分比。使用完整訓練集和 10 倍數據擴充建模的 BDA 的實驗結果作為所有其他方法的上限(BDA(full training))。本文提出的模型(AL w. VAEACGAN)效果優於使用 BDA 的主動學習模型(AL w. ACGAN)。這說明盡管 AL w. ACGAN 使用樣本信息訓練,但生成的樣本可能不具有信息性,因此是無效樣本。盡管如此,AL w. ACGAN 生成的樣本分類性能仍然優於未使用數據增加處理的主動學習方法(AL without DA)。 

此外,圖 3 的實驗還表明,本文提出的模型在僅依賴部分訓練集數據的情況下,能夠獲得與依賴 10 倍訓練集大小數據量的數據增強方法相當的分類性能。這表明,本文模型僅需要消耗較少的人力和計算資源來標記數據集和訓練模型。

進一步,本文在不同隨機初始化的情況下完成三次實驗,給出最終的分類結果見表 1。表 1 的數據表明,本文提出的模型效果優於其他方法。

表1: 經過3次運行,迭代150次后在MNIST、CIFAR-10和CIFAR-100上分類准確率的平均標准差 

圖 4 給出在不同數據庫中使用本文提出的模型生成的圖像。本文模型的主要目標是改進訓練過程以獲得更好的分類效果,然而由圖 4 結果可知,模型的生成數據具有非常高的圖像質量。 

圖4: 本文提出的AL w. VAE-ACGAN方法生成的各類圖像。

總結與分析

本文是受 (Zhu and Bento, 2017 ) 啟發提出的查詢合成類(生成樣本)主動學習模型,由於 (Zhu and Bento, 2017 ) 文章中僅探討了二進制分類問題,本文未與其進行實驗對比。本文提出的方法是模型不可知的(model-agnostic),因此它可以與目前提出的幾種主動學習方法相結合。現有模型的樣本生成方式是:以從未標注數據集中選擇出的具有較高信息量的樣本為基礎來生成樣本,后續研究將着重考慮如何使用復雜的采集函數直接從未標注數據集中生成樣本,而不再需要樣本選擇的步驟。此外,模型的計算性能還需進一步提升。 

作者介紹:仵冀穎,工學博士,畢業於北京交通大學,曾分別於香港中文大學和香港科技大學擔任助理研究員和研究助理,現從事電子政務領域信息化新技術研究工作。主要研究方向為模式識別、計算機視覺,愛好科研,希望能保持學習、不斷進步。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM