論文閱讀:Review of Visual Saliency Detection with Comprehensive Information


這篇文章目前發表在arxiv,日期:20180309。

這是一篇針對多種綜合性信息的視覺顯著性檢測的綜述文章。

注:有些名詞直接貼原文,是因為不翻譯更容易理解。也不會逐字逐句都翻譯,重要的肯定不會錯過^_^。我們的目的是理解文章思想,而不是為了翻譯而純粹翻譯。翻譯得不好,敬請包涵~ 歡迎同道中人QQ交流:1505543113

abstract:

隨着采集技術( acquisition technology)的發展,許多綜合性信息(comprehensive information)諸如depth cue, inter-image correspondence, or temporal relationship都能夠被我們獲取,來實現后續的RGBD saliency detection,co-saliency detection或者 video saliency detection。

RGBD saliency detection模型主要通過組合深度圖的有關深度信息來實現對顯著性區域的抽取。

co-saliency detection模型引入圖像間對應約束(inter-image correspondence)來找到一個圖像組中共同的顯著性目標。

video saliency detection模型的目的是定位一個視頻序列中具有動作相關性的顯著性目標,這個模型同時考慮了運動線索和時空約束( which considers the motion cue and spatiotemporal constraint jointly)。

在這篇文章中,作者闡述了不同類型的顯著性檢測算法,總結了現存算法所提出的重要觀點,並且討論了它們尚存的一些問題以及未來工作的發展。另外對數據集和算法質量評估做了簡要介紹。還開展了有關實驗分析和討論,對不同顯着性檢測方法進行了整體概述。

1 introduction

這篇文章主要集中討論最近幾年的顯著性目標檢測方法。(本人研究顯著性檢測暫時是為自己后續的弱監督圖像語義分割課題服務,所以,當下先只關注圖像方面的顯著性檢測。)

人類的視覺系統不但能感知目標的外在信息,實際上,也能被場景的深層信息(depth information)所影響。深度圖( depth map)為RGBD顯着性檢測奠定了數據基礎,它也能為復雜背景中的前景目標提取提供更好的形狀表示信息和其它有用的屬性。

如圖1,使用深度線索信息( depth cue),RGBD顯著性模型能夠達到更好的檢測效果。然而,如何有效的發掘深層信息以加強對顯著性目標的識別,迄今為止,尚未達成一個共識,還需進一步探索。深度信息一般有兩種使用方式:直接合並作為附加特征,和設計為深度計算(depth measure)方式。

四種檢測方法的聯系,見圖4,很直觀。

其中,圖像顯著性檢測模型( image saliency detection model)是其它三種模型的基礎。

這篇文章闡述了上圖中四種視覺顯著性檢測模型。

文章主體脈絡:

section two: image saliency detection(我的重點~)

section three:RGBD saliency detection

section four:co-saliency detection

section five:video saliency detection

下面進入正題,我會根據這一部分提及的一些論文,進行擴展。

II. IMAGE SALIENCY DETECTION

圖像顯著性檢測旨在通過視覺先驗等技術,檢測一張單獨的圖片中的顯著性目標。經過十幾年的發展,該項技術的算法層出不窮,檢測性能屢屢刷新。這一部分,簡要闡述一些經典的圖像顯著性檢測方法,基於兩種主要的模型:自底向上的模型( bottom-up model [21]–[34])和自頂向下的模型( top-down model [35]–[44])。下面分別來看:

A. Bottom-up Model

Bottom-up Model以下簡稱BU模型,BU模型是刺激驅動的(stimulus-driven),它主要發掘低級( low-level)視覺特征。一些視覺先驗被用於描述顯著性目標的屬性,這些顯著性目標源自基於人類視覺系統的視覺靈感(visual inspirations),諸如對比度先驗(contrast prior[21]),背景先驗( background prior[25][,27],[32]),緊湊性先驗(compactness prior[29])。

人類的皮質細胞,對於高對比度的刺激能夠產生完美的響應,這說明對比度高的區域更能吸引觀察者的注意。程明明[21]等提出了一種簡單高效的顯著性目標檢測方法,該方法正是基於全局對比度,其中顯著性被定義為(當前區域)和圖片中剩余其它所有區域的顏色對比度。一般情況下,攝影師會將顯著性目標放在鏡頭中央,而不是邊界處。所以四個邊界處的區域被判定為背景,用於進行顯著性計算。稱之為背景先驗。然而,在某些情況下,這樣的定義是啟發式的,且不穩定( heuristic and fragile)。

Zhu[25]等人提出了一種魯棒的邊界連通性方法( boundary connectivity measure),用於估計某區域是背景的可能性。然后提出一個整合了多個低級線索的標准優化框架( principled optimization framework)來實現顯著性檢測。顯著區域傾向於在圖像空間中擁有小的空間方差,而背景具有高空間方差,因為它分布在整個圖像上。這種分布特征稱為緊湊性先驗。

Zhou[29]等人把緊湊性先驗和局部對比( local contrast)結合起來用於顯著性目標檢測。此外,顯著性信息通過擴散框架( diffusion framework)在一張圖上進行傳播說明。---最后這句話翻譯得有點怪

此外,還有一些傳統的方法用於進行顯著性目標檢測,比如頻域分析(frequency domain analysis[20])、稀疏表示(sparse representation[23])、細胞自動機(cellular automata[26])、隨機游走( random walks [27])、低等級恢復(low-rank recovery [30])以及貝葉斯理論(Bayesian theory [31])。

一個區域可以通過稀疏表示框架下的背景字典進行重建。所以,Li[23]等人利用重建誤差( reconstruction error)來衡量某一區域的顯著性。顯著區域對應於較大的重建誤差。

隨機游走是隨機序列路徑的數學形式化,已用於顯著性檢測。考慮到圖像細節和基於區域的估計,提出了正則化隨機游走排名以制定像素級顯著圖。 對於低秩恢復模型,可以將特征矩陣分解為對應於圖像背景的低秩矩陣和表示顯著對象的稀疏矩陣。

Peng等人[30]提出了一種新的結構化矩陣分解方法,該方法由兩個結構正則化的高層先驗( high-level priors)指導,以實現顯著性檢測並獲得好的性能。

Lei等人[31]提出了一種用於顯着對象檢測的通用框架,該框架基於貝葉斯決策和迭代優化

B. Top-down Model

Top-down Model以下簡稱TD模型,TD模型是任務驅動的(task-driven) ,這意味着它需要帶有標簽的監督學習,並且要達到高性能。尤其是近幾年發展起來的深度學習,使得顯著性檢測技術達到了不錯的實驗效果。舉些例子:

He等人[36]研究了通過超像素卷積神經網絡進行顯著性檢測的分層對比度特征(hierarchical contrast features),其中不同尺度的顏色唯一性序列和顏色分布序列被嵌入到網絡中。

Li和 Yu [38]等人提出了一個端到端的深度對比網絡,其中多尺度全卷積流(multi-scale fully convolutional stream)捕獲視覺對比度顯著性,同時,分段空間合並流(segment-wise spatial pooling stream)模擬沿對象邊界的顯著不連續性(saliency discontinuities)。
 Liu 和Han [39]等人提出了一個深層顯著性網絡,該網絡通過在全局視圖(GV-CNN,CNN over the Global View)上集成CNN和分層循環CNN(HRCNN,Hierarchical Recurrent CNN )。其中,GV-CNN生成一個,粗糙的,全局性的顯著圖; 然后HRCNN通過將本地上下文信息考慮進去,一恢復圖像細節。

Hou[41]等人在Holisitcally嵌套邊緣檢測器(HED, Holisitcally-nested Edge Detector architecture)架構的跳躍層引入了短連接結構,以實現圖像顯着性檢測。其網絡結合了多種尺度的低級和高級特征。該方法已成功移植到手機產品中。

Zhang等人[42]利用編碼器全卷積網絡(FCN)和相應的解碼器FCN來檢測顯著對象,其中引入重構丟失(R-dropout,Reformulated dropout)以構建內部特征單元的不確定集合,並且提出了混合上采樣方法,用於減少反卷積運算時產生的棋盤效應(可直譯為:棋盤格形狀的偽影。checkerboard artifacts,這里翻譯得很別扭,知道意思,有興趣可以了解一下“反卷積與棋盤效應”的相關知識)。

附:當我們非常仔細地觀察神經網絡生成的圖像時,經常會看到一些奇怪的棋盤格子狀的偽影(artifact)。這可以被稱為棋盤格效應。

So,下面大致按照文章中文獻出現的順序,依次介紹bottom-up model和top-down model!

bottom-up model

一、[21]M.-M. Cheng, G.-X. Zhang, N. J. Mitra, X. Huang, and S.-M. Hu,“Global contrast based salient region detection,” in CVPR, 2011, pp.409–416.

文章標題:基於全局對比度的顯著性區域檢測

這篇CVPR2011的文章,程明明老師在其主頁發布了中文版,鏈接:https://mmcheng.net/mftp/SalObj/SaliencyCVPR2011Chinese.pdf
我已經習慣看英文了,可以的話,也建議朋友們還是看英文,中文輔助理解。選擇合適自己的就好!

這篇文章是對比度先驗的。

Abstract

該文中,作者提出了一種基於區域對比度的顯著性區域檢測算法,該算法簡單,高效,並且可以產生全分辨率的顯著性圖,檢測結果在當時具有更高的精度和更好的召回率。而且作者進一步提出了基於該顯著性圖的視覺顯著性區域自動分割方法。

引言

Treisman和Gelade的“A feature-integration theory of attention,1980”以及Koch和Ullman的“

Shifts in selective visual attention:towards the underlying neural circuitry,1985”。這些早期工作,以及Itti,Wolfe等人的視覺注意理論提議將視覺注意機制分為兩個階段:

快速的、下意識的、自底向上的數據驅動的顯著性提取;以及

慢速的、任務依賴的、自頂向下的、目標驅動的顯著性提取。

本文依據圖像的對比度來進行自底向上、數據驅動的顯著性檢測。

文章提出的提取高分辨率的全局顯著性圖像的分析方法如下:

(1)基於全局對比度的方法傾向於將大范圍的目標和周圍環境分離開。這種方法要優於那些通常只在輪廓附近產生較高顯著性的局部對比度的方法。

(2)全局的考慮可以為圖像中相似區域分配一個相近的顯著性值,並且可以均勻地突出目標(何為均勻的突出目標,我們也需要考慮一下)。

(3)一個區域的顯著性,主要是由它和周圍區域的對比度決定,相距很遠的區域起的作用較小。

(4)為了能夠適應大規模圖像級處理和高效的圖像檢索與分類的應用需求,顯著圖檢測算法應該具有簡單快速的特點。

作者提出了基於直方圖對比度的方法(HC)來檢測顯著性。HC-maps依據與其它像素的色彩差異來分配像素的顯著性值,並用以產生具有全分辨率的顯著性圖像。用色彩空間的平滑操作來控制量化的缺陷。作者也說了,該算法致力於處理普通的自然景象,對處理具有較高紋理的圖像場景不一定能達到最佳效果。

作為HC-maps的改進,作者提出了基於局域對比度的方法(RC)來檢測顯著性。結合空間關系獲取RC-maps。首先,將圖像分割成區域,再為每個區域分配顯著性值,從而形成基於局域對比度的(RC)顯著性圖。區域的顯著性值由全局對比度值計算得到,該全局對比度值由當前區域相對於周圍其它區域的對比度以空間距離來度量。

基於直方圖統計的對比度

作者基於輸入圖像的顏色統計特征提出了基於直方圖對比度(Histogram Contrast,HC)的圖像顯著性值檢測方法。提出該方法的依據是,視覺系統對視覺信號的對比度很敏感。

具體來說,一個像素的顯著性值由它和圖像中其它像素顏色的對比度來定義。

例如,圖像I中像素Ik的顯著性值定義為:

其中N為圖像I的像素數。我們可以看到,由於忽略了空間關系,在這種定義下具有相同顏色值的像素具有相同的顯著性值。因此我們可以對式2進行重排,使得具有相同顏色值的像素歸到一起,得到每個顏色的顯著性值:

對於HC方法的加速,作者用全色彩空間來代替僅用亮度的方法(僅用亮度的方法的缺陷在於忽略了顏色信息的可區別性)。為了減少需要考慮的顏色數,先將每個通道的顏色量化到12個不同的值(關注量化方式),這會將顏色數量減少到123=1728。考慮到自然圖像中的顏色只占整個色彩空間很小的一部分,可將出現頻率小的顏色丟掉以減少色彩數目。

顏色空間平滑

雖然可以用顏色量化后的顏色直方圖來高效計算顏色的對比度,但量化本身可能會產生瑕疵。因為一些相似的顏色可能被量化為不同的值。為了減少這種隨機性給顯著性值計算所帶來的噪聲,作者用平滑操作來改善每個顏色的顯著性值。每個顏色的顯著性值被替換為相似顏色(用L*a*b距離測量)顯著性值的加權平均。這個過程實質上是顏色空間的一種平滑過程。文章選擇m=n/4個最近鄰顏色來改善顏色c的顯著性值,見公式:

基於區域的對比度

空間關系在人類注意力方面起到了非常大的作用。相鄰區域的高對比度比很遠區域的高對比度更容易導致一個區域引起視覺注意。但是,在計算像素級對比度時,引進空間關系計算,代價會非常大。

文章引入一種對比度分析方法:區域對比度(Region Contrast,RC),以此來將空間關系和區域級對比度計算結合到一起。在RC方法中,首先將圖像分割成若干區域,然后計算區域及顏色對比度,再用每個區域和其它區域對比度加權和來為此區域定義顯著性值。權值由區域空間距離決定,較遠的區域分配較小的權值。

用稀疏直方圖比較來計算區域對比度

首先,用基於圖的圖像分割方法將輸入圖像分割成若干區域。然后,為每個區域建立顏色直方圖。對每個區域rk,通過測量它與圖像其他區域的顏色對比度來計算它的顯著性值:

空間加權區域對比度

更進一步,通過在式5中引進空間權值,將空間信息加入進來,來增加區域的空間影響效果。近鄰的區域增大影響,較遠的區域減小影響。特別的,對於任意區域rk,基於空間加權區域對比度的顯著性定義為:

總結與展望

文章提出了基於全局對比度的顯著性計算方法,即基於直方圖對比度(HC)和基於空間信息增強的區域對比度(RC)方法。HC方法速度快,並且可以產生細節精確的結果,RC方法可以產生空間增強的高質量顯著圖像,但與此同時具有相對較低的計算效率。

【實驗部分】

這篇文章的C++代碼(詳見南開大學程明明老師主頁)調通了,我的win7配置環境:

VS2013+OpenCV3.3+QT5.5

接下來是在數據集上進行實驗。實驗結果后面補充。

請看readme,C++源碼里面的幾個project就是對應的文章的相應改進代碼。

二、W. Zhu, S. Liang, Y. Wei, and J. Sun, “Saliency optimization from robust background detection,” in CVPR, 2014, pp. 2814–2821.
這篇2014年的CVPR文章屬於背景先驗。

1 摘要

本文中,作者提出了一種背景檢測方法,稱之為邊界連續性方法(boundary connectivity)。該方法表征了圖像區域對於圖像邊界的空間布局。它擁有直觀的幾何解釋,並且擁有以往方法所不具有的優勢。同時,作者也提出了一個標准的優化框架,包含背景檢測方法在內,該框架用來整合多種低級線索信息,來獲得干凈且格式統一的顯著圖。說白了,就是利用連續性來提高背景先驗的魯棒性

2 介紹

本文提出的邊界連續性觀點就是:只有當某一區域和圖像邊緣具有十分緊密的連接(heavily connected)時,才說這一圖相塊屬於背景信息。該方法表征了圖像區域相對於圖像邊緣的空間布局,所以有不錯的魯棒性。由於它有一個直觀的幾何解釋,所以當圖像內容發生變化時,它的性能也是穩定的。

損失函數是這么定義的:它以直接實現顯著性目標的檢測為目的。對於目標區域,使用前景線索作為約束,來獲得高的顯著性;對於背景區域,則使用背景線索作為約束,以降低背景區域的顯著性。

3 邊界連通性/邊界連續性(理解意思就好):一個魯棒的背景檢測方法

3.1 概念定義

作者發現,目標和背景在一張自然圖像中的空間布局是很不同的。比如:目標區域與圖像的邊緣部分的聯系遠沒有背景區域多或者緊密。看下面這張圖:

顯然,綠色部分為目標區域,它只有下面一條較短的邊和圖像邊緣連接在一起。其他部分並無相連,而藍色和白色的背景區域,其邊界有很大一部分都和圖像邊緣重合在一起。另外,雖然粉色部分從數量上來看,與圖像邊界相連的部分不多,但是由於粉色區域整體就很小,所以就目前狀況,粉色區域邊界還是大半都和圖像邊界相聯系的,因此我們依然可以判斷,粉色區域屬於背景區域,而不是目標區域,將其歸結為非顯著。

我們提出一個可以定量描述某區域R和圖像邊界連通性的函數:

Bnd是圖像邊界塊的集合,p是圖像塊。它擁有一個直觀的幾何上的解釋:

它=某區域與圖像邊緣關聯的長度/該區域的周長(或者該區域面積的平方根)

注意:使用開根號的目的是為了保證尺度不變性。

還有一點,實際的圖像中,目標區域的邊界並不是很清晰,這就導致長度和面積的計算會比較困難。為了克服這一困難,作者利用最短路徑方法構造了一個相似度,公式如下:

geo計算p到q之間的最短路徑,衡量的是超像素塊p和q的相似度,這種相似度是無間隔的。如果兩個顏色相近的超像素塊被顏色截然不同的超像素塊阻隔,那么,其最短路徑值會對應增長。有了相似度之后,接下來就可以計算面積了:

將得到的相似度代入,同時使用高斯權重函數將相似度映射到(0,1]之間—— 若兩個超像素區域更相似,則其映射的值更加傾向於1,然后使用映射到的值來計算長度。

經過這樣的處理,長度和面積的單位就是一樣的。這主要是由圖像的特殊性所決定的。在顯示屏上,一個單位的像素可被簡單視為一個單位長度的正方形,所以拋開概念不談,長度和面積的計數是一致的。對於δ的取值,分兩種情況:如果超像素在圖像邊界上,則取1,否則取0。

最后,就可以計算邊界連通性了,它使用下面公式定量描述:

【實驗部分】

這篇文章的MATLAB代碼,暫時只貼一下實驗結果,有時間很有必要完善一下代碼解析:

運行demo.m

看一下效果:

原圖

原圖

三、C. Li, Y. Yuan, W. Cai, Y. Xia, and D. Feng, “Robust saliency detection via regularized random walks ranking,” in CVPR, 2015, pp. 2710–2717.
這篇CVPR2015屬於背景先驗。

摘要

這篇文章提出了一種可以同時利用局域特征和圖片細節信息的顯著性檢測方法。該方法首先通過作者所提出的“錯誤邊界去除”技術來優化圖像邊界的選擇;然后,把基於局域的估計和圖像信息同時考慮在內,提出了正則隨機游走排序算法以生成像素級顯著圖,而該像素級的顯著圖來自基於超像素的背景以及前景的顯著性估計。

背景知識

這一部分主要是對流形排序模型和隨機游走模型做一個簡要減少,作為我們理解下文的預備知識。主要是一些公式原理,有興趣可看原文。

本文算法

主要分三步:

(1)刪除屬於背景的概率最小的那些邊界,並且通過背景查詢生成顯著性估計;

(2)基於背景估計的互補值來生成前景顯著性估計;

(3)提取步驟2中的seed references,並且利用所提出的正則隨機游走排序算法來計算像素級的顯著性圖。

背景顯著性估計

輸入圖像中的邊界可能被前景圖像占用,那么,這個邊界就是存在不確定性的,用這樣一個存在問題的邊界去做顯著性估計,會產生一些無法預料的結果。這是由於這個問題的出現,作者提出了在進行背景顯著性檢測之情,通過定位和消除錯誤邊界的手段來優化邊界所產生的影響。

作者將超像素邊界視為連通區域,且計算出它的歸一化的像素級的RGB直方圖。公式:

b屬於上、下、左、右四個方向的邊界定位標記。只列公式,其他寫起來有點耗時,請看paper。

接着,計算四個直方圖中任意兩個的歐式距離。公式:

這個A是4維矩陣,之后會將其內元素按列相加。哪一列值最大,就移除那一列,意即移除了那一列所對應的邊界。舉個例子:比如相加之后,發現第二列值最大,那么我們就相應的移除下方邊界;第四列值最大,則移除右方邊界。

接下來,我們就需要計算前面結果的互補值,來獲得前景顯著性。公式:

通過逐像素相乘,得到背景顯著性:

錯誤邊界移除這一步的主要優點是,在至少一個方向的邊界和前景目標發生毗連時,通過錯誤邊界移除步驟,我們可以減少使用全部邊界所帶來的不准確性。見圖1

前景顯著性估計

單純的背景查詢有時候對於完全描述前景信息是不准確的,特別是當顯著性目標結構復雜且與背景布局方面相似時。鑒於此,提出了接下來的基於前景查詢的顯著性估計。

前景顯著性估計:

它將被用於產生下一步的seed references。

生成基於正則化隨機游走排序的顯著圖

作者提出了一種擬合約束,它約束dirichlet積分盡可能多的接近先前的顯著性分布:

定義兩個閾值:

將上述矩陣16分解:

優化方案:

【實驗部分】

附上源碼鏈接:https://github.com/yuanyc06/rr

還用MSRA10K數據集,看一下檢測效果:

原圖:

  

顯著圖:

  

四、Z. Wang, D. Xiang, S. Hou, and F. Wu, “Background-driven salient object detection,” IEEE Trans. Multimedia, vol. 19, no. 4, pp. 750–762, 2017.

這篇文章同樣基於背景先驗,時間關系,由於事先未找到代碼,先不做研究,但是思想可以借鑒。

五、L. Zhou, Z. Yang, Q. Yuan, Z. Zhou, and D. Hu, “Salient region detection via integrating diffusion-based compactness and local contrast,” IEEE Trans. Image Process., vol. 24, no. 11, pp. 3308–3320, 2015.

這篇文章屬於緊湊型先驗,時間關系,由於事先未找到代碼,先不做研究,但是思想可以借鑒。

還有review中提到的一些傳統方法,有時間可以結合一下。

top-down model

top-down模型是任務驅動的,它需要有標簽的監督學習,並且性能極佳。尤其是深度學習技術的發展,使其展現出更加強大的威力。

一、S. He, R. W. Lau, W. Liu, Z. Huang, and Q. Yang, “SuperCNN: A superpixelwise convolutional neural network for salient object detection,”Int. J. Comput. Vis., vol. 115, no. 3, pp. 330–344, 2015.
基於超像素卷積神經網絡的顯著性目標檢測
CNN在目標檢測領域的應用,先對圖像進行超像素切割,得到三個序列(超像素序列,一個空間核矩陣,一個范圍核矩陣)。然后將三個序列送入三個卷積網絡中進行訓練,實現CNN的多通道輸入。顯著性主要通過超像素來體現。

二、G. Li and Y. Yu, “Deep contrast learning for salient object detection,”in CVPR, 2016, pp. 478–487

三、N. Liu and J. Han, “DHSNet: Deep hierarchical saliency network for salient object detection,” in CVPR, 2016, pp. 678–686.

摘要

DHSNet首先通過自動學習多種基於全局架構的顯著性線索信息,比如全局對比度、目標、緊湊性及其優化組合,來得到一個粗略的全局預測結果;然后通過一個分層卷積遞歸神經網絡(HRCNN)對本地上下文信息進行融合來進行更深層次地逐步地細化顯著圖的細節。整個網絡架構都呈現一種全局到全局、粗略到精細的模式。

介紹

具體來說,作者先是提出了一個全局視角的卷積神經網絡(GV-CNN),它用來生成一個粗略的全局的顯著圖,稱之為 Sm,以大致探測和定位顯著性目標;借助全局結構性損失,GV-CNN可以隨后獲得一個優化的全局性的顯著性目標的檢測結果。

由於得到的Sm和原始輸入圖像相比,粗略了很多。鑒於此,作者接着提出了分層卷積遞歸神經網絡(HRCNN),它通過結合本地的上下文信息來在細節上細化顯著圖。如下面圖2所示,HRCNN由若干遞歸卷積層(RCL)和上采樣層組成。RCL會層層遞進得提升所得顯著圖的質量,並且為下一步訓練提供了一個好的初始化值。

總的來說,DHSNet由GV-CNN和HRCNN組成。其中GV-CNN首先基於全局粗略地探測顯著性對象;接着HRCNN層層遞進地一步一步地細化所生成的顯著圖的細節。DHSNet是端到端的訓練模式。

用GV-CNN進行粗略的全局預測

如圖2,GV-CNN由13個VGG net構成的卷積層組成。接下來是全連接層和重構層(reshape layer)。

用HRCNN對顯著圖進行逐層精細化

遞歸卷積層(RCL)是HRCNN的核心部件。

四、Q. Hou, M.-M. Cheng, X. Hu, A. Borji, Z. Tu, and P. Torr, “Deeply supervised salient object detection with short connections,” in CVPR, 2017, pp. 5300–5309.

五、P. Zhang, D. Wang, H. Lu, H. Wang, and B. Yin, “Learning uncertain convolutional features for accurate saliency detection,” in ICCV, 2017, pp. 212–221.

以下是自己增加的幾篇paper:

六、Shallow and Deep Convolutional Networks for Saliency Prediction

這是一篇CVPR2016。作者說這也是第一篇用CNN訓練的端到端的顯著性檢測方法。本文提出了兩種設計:首先是一個用於從頭訓練的淺層網絡,其次是一個比較深層的網絡,它的前三層改編自一個其他的用於分類的網絡。

 

 



 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM