WACV 2021 論文大盤點-圖像分割篇
本篇文章盤點WACV2021圖像分割相關論文,包括摳圖、實例、全景、語義分割,自然災害評估等相關應用。值得關注的是有一篇文本摳圖,在以往工作中很少或從未研究過的。
共計 11 篇。如有遺漏,歡迎補充。
下載包含這些論文的 WACV 2021 所有論文:
實例分割
[1].Weakly Supervised Instance Segmentation by Deep Community Learning
文中作者引入一個用於弱監督實例分割的深度社區學習框架,該框架基於一個端到端可訓練的深度神經網絡,在目標檢測、實例掩碼生成和目標分割多個任務之間有主動交互。加入兩種有經驗的目標定位技術:class-agnostic bounding box regression 和 segmentation proposal generation,且是在沒有完全監督的情況下進行的。
所提出的算法在不進行后處理情況下,在標准基准數據集上實現了比現有弱監督方法大幅提高的性能。
作者 | Jaedong Hwang, Seohyun Kim, Jeany Son, Bohyung Han單位 | 首爾大學;ETRI論文 | https://arxiv.org/abs/2001.11207主頁 | https://cv.snu.ac.kr/research/WSIS_CL/

#WACV 2021##航空影像##實例分割#[2].MSNet: A Multilevel Instance Segmentation Network for Natural Disaster Damage Assessment in Aerial VideosMSNet:用於航空視頻自然災害評估的多級實例分割網絡
本文研究通過航空視頻分析,有效評估颶風、洪水或火災等自然災害后的建築物損失問題。
做出了兩個主要貢獻:
第一個貢獻是一個新的數據集,包括來自社交媒體用戶生成的航拍視頻,並帶有實例級的建築損傷掩碼標注。為利用航拍視頻評估建築物損傷的模型的定量評估提供了第一個基准。
第二個貢獻是一個新的模型:MSNet,包含了新的區域 proposal 網絡設計和一個無監督的分數細化網絡,用於邊界盒和掩模分支的置信度分數校准。
實驗表明,新的模型和新的數據集與以前的方法相比,取得了最先進的結果。作者表示將發布數據、模型和代碼。
作者 | Xiaoyu Zhu, Junwei Liang, Alexander Hauptmann單位 | 卡內基梅隆大學論文 | https://w.url.cn/s/AC2eIwl代碼 | https://github.com/zgzxy001/MSNET

語義分割
[3].Unsupervised Domain Adaptation in Semantic Segmentation via Orthogonal and Clustered Embeddings作者 | Marco Toldo, Umberto Michieli, Pietro Zanuttigh單位 | 意大利帕多瓦大學論文 | https://arxiv.org/abs/2011.12616主頁 | https://lttm.dei.unipd.it/paper_data/UDAclustering/代碼 | https://github.com/LTTM/UDAclustering

[4].Improving Point Cloud Semantic Segmentation by Learning 3D Object Detection
提出 Detection Aware 3D Semantic Segmentation (DASS) 網絡來解決當前架構的局限性。DASS 可以在保持高精度鳥瞰(BEV)檢測結果的同時,將幾何相似類的 3D語義分割結果提高到圖像 FOV 的 37.8% IoU。
作者 | Ozan Unal, Luc Van Gool, Dengxin Dai單位 | 蘇黎世聯邦理工學院;魯汶大學論文 | https://arxiv.org/abs/2009.10569

[5].Multi Projection Fusion for Real-Time Semantic Segmentation of 3D LiDAR Point Clouds
本次工作,作者提出全新的 multi-projection 融合框架,通過使用球面和鳥瞰投影,利用 soft voting 機制對結果進行融合,實現點雲語義分割。所提出的框架在 SemanticKITTI 數據集上的mIoU達到了 55.5,高於最先進的基於single projection 的方法 RangeNet++ 和 PolarNet,比前者快1.6倍,比后者快3.1倍。同時具有更高的 throughput(吞吐量)。
對於未來工作方向,作者稱將兩種 projections 結合成單一的多視圖統一模型,並研究在框架內使用兩種以上的 projections 。
作者 | Yara Ali Alnaggar, Mohamed Afifi, Karim Amer, Mohamed Elhelw單位 | Nile University;論文 | https://arxiv.org/abs/2011.01974

[6].Shape From Semantic Segmentation via the Geometric Renyi Divergence作者 | Tatsuro Koizumi, William A. P. Smith單位 | 約克大學論文 | https://openaccess.thecvf.com/content/WACV2021/papers/Koizumi_Shape_From_Semantic_Segmentation_via_the_Geometric_Renyi_Divergence_WACV_2021_paper.pdf

全景分割
[7].Boosting Monocular Depth With Panoptic Segmentation Maps作者 | Faraz Saeedan, Stefan Roth單位 | 達姆施塔特工業大學論文 | https://openaccess.thecvf.com/content/WACV2021/papers/Saeedan_Boosting_Monocular_Depth_With_Panoptic_Segmentation_Maps_WACV_2021_paper.pdf

視頻目標分割
[8].Reducing the Annotation Effort for Video Object Segmentation Datasets
為進一步改進視頻目標分割的性能,需要更大、更多樣化、更具挑戰性的數據集。然而用像素掩碼對每一幀進行密集標注並不能擴展到大型數據集。
因此作者使用深度卷積網絡,從較便宜的邊界框標注中自動創建像素級的偽標簽,並研究這種偽標簽能在多大程度上承載訓練最先進的VOS方法。令人欣喜的是,僅在每個對象的單個視頻幀中添加一個手動標注的掩碼,足以生成偽標簽,用來訓練VOS方法,並達到與完全分割視頻訓練時幾乎相同的性能水平。
基於此,為 TAO 數據集的訓練集創建像素偽標簽,手動標注驗證集的一個子集。得到了新的TAO-VOS基准,公布在 https://www.vision.rwth-aachen.de/page/taovos(近期公開)
作者 | Paul Voigtlaender, Lishu Luo, Chun Yuan, Yong Jiang, Bastian Leibe單位 | 亞琛工業大學;清華大學論文 | https://arxiv.org/abs/2011.01142代碼 | https://www.vision.rwth-aachen.de/page/taovos備注 | WACV 2021

目標部分分割
[9].Part Segmentation of Unseen Objects using Keypoint Guidance
作者開發了一種端到端學習方法,利用關鍵點位置引導遷移學習過程,將 pixel-level 目標部分分割從完全標記的目標集遷移到另一個弱標記的目標集。對於部分分割來說,作者證明非參數化的模板匹配方法比像素分類更有效,特別是對於小的或不太頻繁的部分。
為驗證所提出方法的通用性,作者引入了兩個新的數據集,共包含 200 只四足動物,同時具有關鍵點和部分分割標注。並證明所提出方法在訓練過程中使用有限的部分分割標簽,可以在新型物體部分分割任務上以較大的優勢優於現有模型。
作者 | Shujon Naha, Qingyang Xiao, Prianka Banik, Md. Alimoor Reza, David J. Crandall單位 | 印第安那大學藝術科學學院論文 | https://openaccess.thecvf.com/content/WACV2021/papers/Naha_Part_Segmentation_of_Unseen_Objects_Using_Keypoint_Guidance_WACV_2021_paper.pdf數據集 | http://vision.sice.indiana.edu/animal-pose-part/
圖像摳圖
Towards Enhancing Fine-Grained Details for Image Matting
提出一個關於圖像摳圖問題的新觀點,明確地將這個任務分為兩個部分:一個是提取高級語義線索的語義部分,另一個是提供精細細節和低級紋理線索的紋理補償部分。
基於這一點,提出一種新的深度圖像摳圖方法,明確定義了兩條路徑:編碼器-解碼器語義路徑和無下采樣紋理補償路徑。進一步提出了一個新的損失項,幫助網絡緩解不准確的trimap問題,更好地檢測那些 "純 "背景部分。
所提出的方法在具有挑戰性的Adobe Composition1k測試數據集上實現了新的最先進的性能。
作者 | Chang Liu, Henghui Ding, Xudong Jiang單位 | 南洋理工大學論文 | https://openaccess.thecvf.com/content/WACV2021/papers/Liu_Towards_Enhancing_Fine-Grained_Details_for_Image_Matting_WACV_2021_paper.pdf

Text Matting
ATM: Attentional Text Matting
本次研究,作者嘗試解決從圖像背景中提取字符(通常為WordArts)的 Text Matting(文本摳圖)問題。與傳統的圖像摳圖問題不同,文本摳圖的難度要大得多,因為它的前景有三個特性:小、多目標、結構和邊界復雜。
方案是提出一個兩階注意力文本摳圖 pipeline,作者稱是首個文本摳圖方法。構建了一個文本摳圖圖像合成引擎,並合成了一個具有多樣性大規模的高質量文本摳圖數據集。
在合成和真實圖像數據集上進行了大量實驗,證明所提出方法比最先進的圖像摳圖方法在文本摳圖任務上的優越性。
作者 | Peng Kang, Jianping Zhang, Chen Ma, Guiling Sun
單位 | 美國西北大學;加拿大麥吉爾大學;南開大學
論文 |
https://openaccess.thecvf.com/content/WACV2021/papers/Kang_ATM_Attentional_Text_Matting_WACV_2021_paper.pdf
代碼 | https://github.com/TextMatting/TextMatting