論文調研1014---->Unet、Attention分割相關


 

U-Net: Convolutional Networks for Biomedical Image Segmentation

 

摘要:深度網絡的成功訓練需要成千上萬的注釋訓練樣本,這一點已經得到了廣泛的認同。在本文中,我們提出了一種網絡和訓練策略,依賴於強大的數據擴充,以更有效地使用可用的注釋樣本。該體系結構由捕獲上下文的收縮路徑和支持精確定位的對稱展開路徑組成。我們證明,這樣的網絡可以從很少的圖像中得到端到端的訓練,並且在電子顯微鏡堆棧中分割神經結構的ISBI挑戰中優於之前最好的方法(滑動窗口卷積網絡)。使用同樣的網絡對透射光學顯微鏡圖像進行訓練(相位對比和DIC),我們在2015年的ISBI細胞跟蹤挑戰賽中以巨大優勢勝出。此外,網絡速度很快。在最近的GPU上,512x512圖像的分割時間不到一秒。完整的實現基於Ca (e)和經過訓練的網絡可以在http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net

 

UNet++: A Nested U-Net Architecture for Medical Image Segmentation

 

摘要:在本文中,我們提出了UNet++,一個新的,更強大的結構用於醫學圖像分割。我們的架構本質上是一個深度監督的編碼器-解碼器網絡,其中編碼器和解碼器子網絡通過一系列嵌套的、密集的跳躍路徑連接。重新設計的跳轉路徑旨在減少編碼子網絡和解碼器子網絡的特征圖之間的語義差距。我們認為,當解碼器和編碼器網絡中的特征映射在語義上相似時,優化器將處理更容易的學習任務。我們評估了UNet++與U-Net和wide U-Net架構在多個醫學圖像分割任務中的應用:胸部低劑量CT掃描中的結節分割,顯微鏡圖像中的核分割,腹部CT掃描中的肝臟分割,結腸鏡視頻中的息肉分割。實驗表明,在U-Net和wide U-Net上,深度監管的UNet++平均IoU增益分別為3.9和3.4點。

 

UNET 3+: A FULL-SCALE CONNECTED UNET FOR MEDICAL IMAGE SEGMENTATION

 

摘要:近年來,人們對基於深度學習的語義分割越來越感興趣。UNet是一種具有編解碼器結構的深度學習網絡,廣泛應用於醫學圖像分割。多尺度特征的結合是實現精確分割的重要因素之一。UNet++是通過設計一種嵌套和密集跳躍連接的架構而開發的一種改進的UNet。然而,它沒有從全尺度探索足夠的信息,仍然有很大的改進空間。在本文中,我們提出了一種新的UNet 3+,它利用了全尺寸跳躍連接和深度監控。全尺寸跳躍連接結合低級細節和高級語義從不同比例的特征映射;而深度監督則從全尺寸的聚合特征圖中學習層次表示。所提出的方法尤其有利於出現在不同規模的器官。除了提高精度外,提出的UNet 3+還可以減少網絡參數以提高計算效率。我們進一步提出了一種混合損失函數,並設計了一個分類引導模塊來增強器官邊界,減少非器官圖像的過分割,得到更准確的分割結果。在兩個數據集上驗證了該方法的有效性。代碼可在:github.com/ZJUGiveLab/UNet-Version上獲得

 

3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation

 

摘要:本文介紹了一種從稀疏標注的體積圖像中學習的體積分割網絡。我們概述了此方法的兩個有吸引力的用例:(1)在半自動設置中,用戶注釋要分割的卷中的某些切片。網絡從這些稀疏注釋中學習,並提供密集的3D分割。 (2)在全自動設置中,我們假設存在一個代表性的,稀疏注釋的訓練集。在此數據集上進行訓練后,網絡密集地分割了新的體積圖像。擬議的網絡擴展了Ronneberger等人先前的u-net體系結構。通過將所有2D操作替換為3D操作。該實現在訓練過程中執行彈性變形以有效地增強數據。它是從頭開始進行端到端培訓的,即不需要預先培訓的網絡。我們在復雜的,高度可變的3D結構(非洲爪蟾腎臟)上測試了所提出方法的性能,並在兩種使用情況下均取得了良好的結果。

 

TernausNet: U-Net with VGG11 Encoder Pre-Trained on ImageNet for Image Segmentation

 

摘要:像素分割是計算機視覺中要求較高的任務。經典的由編碼器和解碼器組成的U-Net結構在醫學圖像、衛星圖像分割中非常流行。通常,在像ImageNet這樣的大數據集上預先訓練的網絡,用權值初始化的神經網絡比在小數據集上從頭開始訓練的神經網絡表現出更好的性能。在一些實際應用中,特別是在醫葯和交通安全方面,模型的准確性是至關重要的。在本文中,我們演示了如何通過使用預先訓練好的編碼器來改進U-Net型架構。我們的代碼和相應的預訓練權重可以在https://github.com/ternaus/TernausNet公開獲得。我們比較了三種權值初始化方案:LeCun uniform、權值來自VGG11的編碼器和在Carvana數據集上訓練的全網絡。這個網絡架構是在Kaggle: Carvana圖像掩蔽挑戰中獲勝的解決方案(在735個方案中排名第一)的一部分

 

Attention U-Net:Learning Where to Look for the Pancreas

 

摘要:我們提出了一種用於醫學成像的新型注意門(AG)模型,該模型會自動學習以專注於形狀和大小不同的目標結構。由AG訓練的模型隱式學習了在輸入圖像中抑制不相關區域的同時突出顯示對特定任務有用的顯着特征。這使我們消除了使用級聯卷積神經網絡(CNN)的顯式外部組織/器官定位模塊的必要性。 AG可以輕松地集成到標准的CNN架構中,例如U-Net模型,而其計算開銷卻最小,同時還可以提高模型的靈敏度和預測精度。在兩個大型CT腹部數據集上評估了擬議的Attention U-Net體系結構,以進行多類圖像分割。實驗結果表明,AG可以在保持計算效率的同時,持續提高U-Net在不同數據集和訓練規模上的預測性能。提議的體系結構的源代碼是公開可用的。

 

ET-Net: A Generic Edge-aTtention Guidance Network for Medical Image Segmentation

 

摘要:分割是醫學圖像分析中的一項基本任務。然而,現有的方法大多集中於原始區域的提取,而忽略了邊緣信息,這有利於獲得准確的分割。本文提出了一種通用的醫學分割方法,即邊緣-注意力引導網絡(ET-Net),通過嵌入邊緣-注意力表示來引導分割網絡。特別是利用邊緣引導模塊學習早期編碼層中的邊緣注意表示,然后將其轉移到多尺度解碼層,使用加權聚合模塊融合。在四種分割任務上的實驗結果。如視網膜圖像中的視盤/杯和血管分割,以及胸部x線和CT圖像中的肺分割),證明了保留邊緣注意表征有助於nal分割的准確性,並且我們提出的方法優於目前最先進的分割方法。我們方法的源代碼可以在https://github.com/ZzzJzzZ/ETNet獲得。

 

 

 

Dual Attention Network for Scene Segmentation

 

摘要:在本文中,我們通過捕獲豐富的基於自我注意機制的上下文依賴來解決場景分割任務。與以往的多尺度特征融合捕捉上下文不同,我們提出了一種雙重關注網絡(DANet)來自適應地將局部特征與其全局依賴關系集成在一起。具體來說,我們在擴展的FCN上附加了兩種類型的注意模塊,分別在空間維度和通道維度上對語義相互依賴進行建模。位置注意模塊通過所有位置特征的加權和選擇性地聚合每個位置的特征。無論它們的距離如何,相似的特征都會相互關聯。同時,信道注意模塊通過整合所有信道圖的相關特征,選擇性地強調相互依賴的信道圖。我們將兩個注意模塊的輸出結果相加,進一步改進特征表示,使得分割結果更加精確。我們在三個具有挑戰性的場景分割數據集,即城市景觀、帕斯卡上下文和COCO素材數據集上取得了新的分割性能。特別是在沒有使用粗糙數據的情況下,Cityscapes測試集平均IoU得分為81.5%。

 

 

 

Pyramid Attention Networkfor Semantic Segmentation

 

摘要:為了充分利用全局上下文信息對語義分割的影響,提出了一種金字塔關注網絡(PAN)。與現有的大多數研究不同,我們將注意力機制和空間金字塔結合起來提取精確的密集特征用於像素標記,而不是復雜的擴容卷積和人工設計的解碼器網絡。具體來說,我們引入一個特征金字塔關注模塊執行空間金字塔注意結構高層輸出,結合全球池學習更好的特征表示,和全球關注Upsample每個解碼器模塊層提供全局上下文的指導低級特征選擇類別定位細節。該方法在沒有COCO數據集的訓練下,在PASCAL VOC 2012和Cityscapes基准測試中取得了最先進的性能,mIoU准確率達到了84.0%。

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM