[one-shot醫學圖像分割]LT-Net: Label Transfer by Learning Reversible Voxel-wise Correspondence for One-shot Medical Image Segmentation


前言

  1. 核心
  • 問題:解決one-shot醫學圖像分割
  • 方案: 傳統的基於Atlas的醫學圖像分割對於解決one-shot問題很有幫助,通過使用神經網絡進行替代傳統紋理計算的方式計算一致性
    引入強化學習,充分利用訓練數據
  • 結論: 思路方法很好,通過方法的結合進行提出新的方案是一個很好的思路。
  1. Atlas-based segmentation: 基於圖譜的圖像分割
    Atlas:指人工標記完備的數據集,可以翻譯為"地圖集",如BrainWeb中的Atlas:在三維腦部CT數據中醫生標注完備的各種腦部結構。
  2. non-rigid registration: 非剛性配准,用於label傳播
  3. patch-based segmentation: 使用非局部思想(nonolocal concept) 進行patch-patch而不是one-one的對應關系。
  4. 深度卷積神經網絡:DCNNs,deep convolutional neural networks

Abstract

  1. an intriguing characteristic of ..:一個有趣的特點是
    1.為了解決缺少標注的問題,借助經典的atlas-based方法的分割思想來解決one-shot分割問題。
    2.以端到端方式將對應映射關系的學習擴展到one-shot分割框架中,其中前向和反向構成的循環一致性 (forward-backward cycle-consistency)在圖像、轉換和標簽空間中起到了額外監督的重要作用。
  2. 圖像之間的真是標注的對應關系一般難以建立
  3. We demonstrate the superiority of our method over both deep learning-based one-shot seg-mentation methods and a classical multi-atlas segmentation method via thorough experiments.
  4. the state-of-the-art(SOTA):當前的最好方法
  5. 解釋拓展:In addition, we impose supervision in three involved spaces, namely, the image space, the transformation space, and the label space, which has been verified effective in our experiments.

Introduction

  1. DCNN-based segmentation methods that require only one or few examples of annotation for training are highly desirable to enable efficient development and deployment of practical solutions
    實際解決方案的部署問題
  2. 基於圖譜的醫學圖像分割只需要很少的標注數據,這與深度學習中的少樣本學習(few-shot/one-shot learning)概念相似。
  3. 傳統基於圖譜的醫學圖像分割的核心是標注數據和待分割數據之間的相似度匹配問題,傳統方法都是通過紋理等特征進行局部特征計算。
  4. DCNNs在處理多尺度語義特征更加強大,通過DGCNNs進行基於圖譜的醫學圖像分割更加合適。
  5. 我們提出的方法是直接使用深度學習方法來模擬基於圖譜的醫學圖像分割
  6. 方法的輸入是地圖集和目標圖片,並預測前者到后者的對應圖。
  7. 主要使用神經網絡學習對應關系(理解就是使用神經網絡進行未標記圖片和已經標記圖片之間的像素點相似度進行預測,相似度高的使用對應的已經標記的類別)
  8. 為了有效訓練,增加了鑒別網絡進行對抗訓練。
  9. correspondence problem: 一致性問題,即相似度的計算。forward-backward consistency,即先通過atlas數據對應到未標記數據上,經過預測后得到的結果(warped atlas)再對應回到original atlas中。

Method

參考


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM