U-net圖像分割


  • 【Keras】基於SegNet和U-Net的遙感圖像語義分割

  • 2014 年,加州大學伯克利分校的 Long 等人提出全卷積網絡(FCN),這使得卷積神經網絡無需全連接層即可進行密集的像素預測,CNN 從而得到普及。使用這種方法可生成任意大小的圖像分割圖,且該方法比圖像塊分類法要快上許多。之后,語義分割領域幾乎所有先進方法都采用了該模型。

  • 除了全連接層,使用卷積神經網絡進行語義分割存在的另一個大問題是池化層。池化層不僅擴大感受野、聚合語境從而造成了位置信息的丟失。但是,語義分割要求類別圖完全貼合,因此需要保留位置信息。本文將介紹兩種不同結構來解決該問題。

  • 本文介紹一種編碼器-解碼器結構。編碼器逐漸減少池化層的空間維度,解碼器逐步修復物體的細節和空間維度。編碼器和解碼器之間通常存在快捷連接,因此能幫助解碼器更好地修復目標的細節。U-Net 是這種方法中最常用的結構。

  • 作者Group官網code and paper

  • U-net這篇論文的作者是參加一個ISBI的競賽, 獲得了不錯的效果,然后將其的成果分享給大家,以供大家學習.http://brainiac2.mit.edu/isbi_challenge/ 這是ISBI的官網

參考代碼


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM