下一個項目將開始研究全景分割,這里把去年和今年出來的paper簡單列了一下,全景分割框架內有很多細節,一時半會沒法吃透,需要時間慢慢消化。
Panoptic Segmentation
核心思想
http://arxiv.org/abs/1801.00868
- 提出新的任務PS,結合了semantic segmentation和instance segmentation
- 提出新的指標PQ
- 在三個數據集上研究了人和機器的表現。
評價指標
網絡架構
結合語義分割和實例分割的output。在Cityscapes數據集上,用PSPNet和Mask R-CNN提供語義和實例分割。
實驗結果
Panoptic FPN
核心思想
- 基於Mask R-CNN with FPN,並作了一些小改變來生成語義分割結果。
網絡架構
-
Semantic segmentation branch
從FPN的最深層開始,每層上采樣為1/4scale的feature map。每次上采樣包含3x3conv,group norm,ReLU和2x雙線性插值。
作者還考慮了內存和計算量,對比了如下的不同設計,發現FPN最高效。
-
聯合訓練
Instance segmentation losses:\(L_c(classification loss),L_b(bounding-box loss),L_m(mask loss)\)
Semantic segmentation loss:\(L_s\)
Final loss:\(\lambda_i(L_c+L_b+L_m)+\lambda_s L_s\)
實驗結果
DeeperLab
核心思想
- 主要貢獻
- 提出了幾種網絡設計策略,特別是減少高分辨率輸入的內存占用。
- 基於設計策略,提出了高效single-shot,bottom-up的DeeperLab。
- 提出了新的指標Parsing Covering,從基於區域的角度評估圖像解析結果。
-
Parsing Covering
PQ只關注每個實例的分割質量,而不考慮不同實例的大小,不同大小物體最終分割結果對PQ影響相同,於是提出了PC評價指標。
\(R,R'\)分別表示對應類別的預測segments與真實segments,\(|R|\)表示對應類別的實例在真實標注中像素點數量,\(N_i\)表示類別為i的真實標注像素點總和。通過對大的實例物體賦予更大的權重,使評價指標能夠更明顯地反映大物體的分割指標。
網絡架構
-
Encoder
- Xception-71或MobileNetV2,並在末尾加了ASPP。
-
Decoder
- 借鑒了DeepLabV3+。ASPP的輸出分別被1x1conv降維然后concat。
- DeepLabV3+在concat前上采樣已經降維后的ASPP的輸出,但上采樣會帶來內存消耗,於是采用space-to-depth operation。
- 后面還使用兩個7x7的depthwise conv來增大感受野,然后通過depth-to-space降維。
-
Image Parsing Prediction Heads
- Semantic Segmentation Head:最小化bootstrappd cross-entropy loss並且用了hard example mining,只回傳top-K errors。
- Instance Segmentation Head
- the keypoint heatmap:預測像素是否位於關鍵點中心半徑為R的圈內。
- the long-range offset map:預測像素到所有關鍵點的位置偏移,對每個像素的long-range信息編碼。
- the short-range offset map:類似於long-- range其僅關注關鍵點半徑R內的像素。
- the middle-range offset map:預測關鍵點對之間的偏移。
- Prediction Fusion:將四個預測融合到一個類不相關的instance segmentaion map,再最終融合semantic和instance segmentation map。
- Instance Predicton:Recursive offset refinement、Keypoint localization、Instance detection、Assignment of pixels to instances
- Semantic and Instance Prediction Fusion:從語義分割開始,被預測為‘stuff’被分配唯一的instance label。其他像素的instance label通過實例分割確定,其semantic label則通過多數投票。
實驗結果
AUNet
核心思想
- 設計了PAM和MAM,分別基於RPN階段的特征圖與實例分割輸出的前景分割區域,為stuff segmentation提供了物體層級注意力與像素層級注意力。
網絡架構
-
Attention-guided Modules
-
Proposal Attention Module(PAM)
-
Mask Attention Module(MAM)
此外還提出了RoIUpsample
-
實驗結果
UPSNet
核心思想
網絡架構
-
Backbone:Mask R-CNN(ResNet+FPN)
-
Instance Segmentation Head:Bbox regression output、cls output 和seg mask output。
-
Semantic Segmentation Head:
-
Panoptic Segmentation Head:
實驗結果
TASCNet
核心思想
- 使實例分割和語義分割的預測輸出保持一致性。
網絡架構
- Backbone:ResNet50+FPN,可捕獲更深層次的低級特征,識別更廣泛的對象尺度。
- Stuff Head
- 用3x3conv 將維度從256降到128。
- 使用group normalization歸一化層。
- 使用額外的3x3conv,保持channel。
- 歸一化並上采樣到FPN最大尺度的feature map。
- Things Head:類似於Mask R-CNN,有三個head。
- Stuff Head
- TASC:將兩個head的輸出分布分開。
- Mask-Guided Fusion
實驗結果
JSIS-Net
核心思想
- CNN聯合預測語義分割和實例分割輸出
- 啟發式合並輸出來生成全景分割結果
網絡架構
-
框架
-
Backbone:ResNet-50,被語義分割和實例分割共享。
-
semantic segmentation branch:首先采用Pyramid Pooling Module來生成feature map,再使用混合上采樣將預測變成原圖尺度。混合上采樣首先采用了轉置卷積然后是雙線性插值。
-
instance segmentation branch:基於Mask R-CNN。
用Loss來平衡聯合學習。
-
-
合並輸出:需要解決兩類沖突:overlapping instance masks和conflicting stuff predictions
- Ovelapping instance masks:對所有重疊的instance mask采用NMS,但是會移除很多true的預測。相反,我們選擇利用每個實例的概率圖來解決沖突。在多個instance mask預測像素屬於某個物體,采取特定像素處具有最高概率的。
- Conflicting predictions for things classes:thing存在於語義分割和實例分割,無可避免會有沖突。於是我們移除語義分割輸出中所有thing類並用最可能的stuff類替換它們,這樣語義分割輸出中只有stuff類。然后用實例分割輸出的thing替代語義分割輸出。
實驗結果
OANet
http://arxiv.org/abs/1903.05027
核心思想
-
Contribution
-
第一個提出全景分割中的end-to-end occlusion aware pipeline。
-
提出了一種spatial ranking module來解決重疊關系的模糊性。
-
在COCO全景分割數據集上達到了SOTA。
-
網絡架構
算法包含三部分
- stuff branch預測整張圖的stuff segmentation
- instance branch提供instance segmentation
- spatial ranking module為每個instance生成ranking score
-
End-to-end 網絡架構
- backbone:FPN
- Instance segmentation:Mask R-CNN提供proposal classification score、proposal bb coordinates和proposal instance mask。
- stuff segmentation:兩個3x3conv疊加在RPN的feature map上,之后concatenate。共享backbone和skip-connection。object信息可以為stuff提供上下文,在測試時,我們只提取stuff preditions並將其歸一化為概率。
為了平衡兩種監督,我們提出了multiple losses。
\[L_{total}=(L_{rpn_cls}+L_{rpn_bbox}+L_{cls}+L_{bbox}+L_{mask})+\lambda \cdot L_{seg_(stuff+object)+L_{srm}} \] -
Spatial Ranking Module
當前的實例分割框架沒有考慮不類間的重疊問題,因為指標AP等不受此問題影響。然而全景分割任務中圖像中的像素固定,因此必須解決重疊問題,或一個像素多分配。
檢測分數通常對instance采用降序排列,由於COCO中人更加頻繁,使得領帶被誤判為人。 於是本文提出spatial ranking module模塊,isntance tensor被初始化為0,mapping value被設置為1。然后我們在tensor后采用large kernel conv來獲得ranking score map。最后使用pixel-wise cross entropy loss來優化ranking score map。
實驗結果
Weakly- and Semi-Supervised Panoptic Segmentation
核心思想
- 首個采用弱監督學習全景分割的方法,在沒有足夠全景分割標注的情況下,學習模型。
總結
- 可以從以下三個角度分析與優化全景分割算法:
- 網絡框架搭建:這里指提出一個整體網絡,實現端到端。
- 子任務融合(Subtask Fusion):通常stuff 和instance分支通常相互獨立,這里指兩個分支間是否建立了關聯並相互促進。
- 全景輸出預測(Panoptic Output):合並stuff和instance分支結果時,通常采用先驗邏輯判斷;這里指是否設計了針對全景分割結果合並的模塊。
Method | Contribution | End-to-end | Subtask Fusion | Panoptic Output | COCO 2018 task |
---|---|---|---|---|---|
Panoptic Segmention | define the ps task、Metric:PQ | × | × | × | |
Panoptic FPN | Up-to-Down | √ | × | × | 40.9 |
JSIS-Net | Try end-to-end | √ | × | × | 27.2 |
DeeperLab | Bottom-to-Up、Metric:PC | √ | × | √ | - |
UPSNet | Panoptic Head | √ | × | √ | 46.6 |
OANet | Occlusion Aware | √ | × | √ | 41.3 |
AUNet | Attention-guided | √ | √ | × | 46.5 |
TASCNet | Cross-task Consistency | √ | √ | √ | - |
參考
- paper
[1]Kirillov A, He K, Girshick R, et al. Panoptic segmentation[J]. arXiv preprint arXiv:1801.00868, 2018.
[2]Kirillov A, Girshick R, He K, et al. Panoptic Feature Pyramid Networks[J]. arXiv preprint arXiv:1901.02446, 2019.
[3]Yang T J, Collins M D, Zhu Y, et al. DeeperLab: Single-Shot Image Parser[J]. arXiv preprint arXiv:1902.05093, 2019.
[4]Li Y, Chen X, Zhu Z, et al. Attention-guided unified network for panoptic segmentation[J]. arXiv preprint arXiv:1812.03904, 2018.
[5]Xiong Y, Liao R, Zhao H, et al. UPSNet: A Unified Panoptic Segmentation Network[J]. arXiv preprint arXiv:1901.03784, 2019.
[6]Li J, Raventos A, Bhargava A, et al. Learning to fuse things and stuff[J]. arXiv preprint arXiv:1812.01192, 2018.
[7]de Geus D, Meletis P, Dubbelman G. Panoptic segmentation with a joint semantic and instance segmentation network[J]. arXiv preprint arXiv:1809.02110, 2018.
[8]Liu H, Peng C, Yu C, et al. An End-to-End Network for Panoptic Segmentation[J]. arXiv preprint arXiv:1903.05027, 2019.
- blog