Shifting More Attention to Video Salient Object Detection 學習筆記


突出/顯眼目標的識別廣泛用於機器視覺,自動駕駛等領域,研究表明,人的眼睛對於顯眼和不顯眼的目標的識別的方式有着顯著的不同

但是由於各類原因,vsod的領域面臨着很多挑戰,所以,針對這些,這篇文章主要探討了兩個方面,一是提出了基於人眼動態識別這種機制的數據集,尤其要注意的是,以前的vsod很多都是從靜態幀出發,從而分割對象的,但是這樣明顯不能區分誰是“最顯眼的”,所以,這篇文章先提出了數據集,然后提出了一種SSAV方法,這種方法基於convlstm,可以動態地表現人眼的注意力機制。

CONVLSTM是基於RNN(記憶神經網絡)的一種結構

https://www.jianshu.com/p/5e5d821b3844

https://blog.csdn.net/gzj_1101/article/details/79376798#title_LSTM%20date_20180210_104921%20tags%20categories__1

這個ssav算法一共分為兩個部分:

1. 金字塔卷積模塊,用於增強魯棒性 PDC

2. ssLVSM,就是在LVSM基礎上增加了一個注意力轉移機制

對於這個產生的數據集:
1.

SFLR [8], S
GSP [52], and STBP [81] are the top 3 non-deep learning
models for VSOD.”
也就是SFLR,SGSP,STBD這些基於光流法的方法是非機器學習方法中效果最好的,但是他們的時間成本同樣驚人。
Traditional vs Deep VSOD Models. In Table 4, almost
all of the deep models outperform traditional algorithms,
as more powerful saliency representations can be extract
ed from networks. Another interesting fifinding is the clas
sic leading method (SFLR [8]) performs better than some
deep models (e.g., SCOM [11]) on MCL, UVSD, ViSal, and
DAVSOD datasets. It indicates that investigating more ef
fective deep learning architectures with the exploit of hu
man prior knowledge for VSOD is a promising direction.
Dataset Analysis. We mark the scores with gray color in
Table 4. Darker colors mean better performance for specifific
metrics (e.g., max F, S, and M). We fifind that ViSal and
UVSD datasets are relatively easy, since the top 2 models:
SSAV and PDBM [67] gained very high performance (e.g.,
S > 0.9). However, for more challenging datasets like
DAVSOD, the performance of VOSD models decrease dra
matically (S < 0.73). It reveals that both the overall and
individual performance of VOSD models leave abundant
room for future research.
我們發現,對於VOSD來說,大多數深度學習方法做的比光流法好的多,但是光流法仍然可以做到超越許多深度學習方法,尤其是SFLR方法,說明深度學習仍然有很大的提升空間
同時也發現,隨着數據難度的增加,深度學習方法精確度下降的很快
未來的研究目標:
明顯目標與implicit非明顯目標的識別,對於非明顯目標的識別,VSOD的精確性值得研究
SSLSTM的效率問題,加上注意力轉移機制之后,在一些復雜的數據集上效率不如之前
對於明顯目標的轉移問題,如果視頻中的目標隨着時間,明顯目標發生了變化會怎樣


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM