讀 Ultra Fast Lane Detection


Ultra Fast Lane Detection

paper
github

  1. 貢獻

    1. 提出一種簡單有效的車道檢測方法,快且解決了在圖上無車道時推測車道的問題;
    • 快:將語義分割問題轉化成分類問題(減少運算),Row Anchor, 300+FPS;
    • 解決圖上無車道時車道推測:結合全局的特征預測車道,相比語義方法有更大的感受野;
    1. 基於上述的方法提出一個結構化損失函數;
    2. SOTA;
  2. 模型框架(看着框架說實現)
    UltraFastLaneDetection

    上下兩個分支:
    主下,先ResNet特征提取,再按rowanchor分類;
    次上,語義分割,僅在訓練時有效;

  3. 具體實現

    1. 快:
      首先將圖像網格化,每一行網格有若干個rowanchor;然后根據提取的全局特征,判斷rowanchor是否是車道線。相比於語義分割,逐個像素來算,基於提前定義好的rowanchor大大減少了運算量,故快。
      whyFast

    2. no-visual-clue problem:
      利用來自其他地方的信息來解決這一問題:擁有整個圖像的感受野;通過其他車道線(損失函數)或者車道形狀或者車的方向來推測;通過rowanchor的方式將像素級和更大范圍的車道線特征聯系起來;

    3. 損失函數
      三個部分:分類損失、結構損失、分割損失;
      Ltotal

    分割損失:每行預測的rowanchor與真實位置one-hot向量的交叉熵之和;有一個額外的維度來表示車道缺失,故每行是w+1,而不是w;
    clsLoss

    結構損失:兩個部分,車道線的連續性約束Lsim與車道線的形狀約束Lshp; 連續性約束Lsim,車道總是連續的,相鄰的行的rowanchor應該相互靠近,故取相鄰行預測量的一范數;形狀約束Lshp,由於透視效果,車道線看上去是直的,至少在近處總是這樣,故通過相鄰三行的二階差分來限制(用二階不用一階的原因);
    simLoss

    shpLoss

    strLoss

    分割損失:利用多尺度特征進行語義分割出車道線條的交叉商(只在訓練時有這個輔助分支,測試時去除,不影響速度);

  4. 文章其他需要關注的點

    1. 傳統方法
    • HSL colot model[25] and edge extraction algorithms[29,27]
    • Tracking[13,28]
    • Markov and conditional random fields[16]
    • Template matching and vector machines[15,6,20]
    1. 深度學習方法
    • semantic segmentation: VPGNet[17], SCNN[22], SAD[9]
    • Sequential prediction: LSTM[18], Fast-Draw[24]
    • Clustering: [10,30]
    • 3D formulation: [4]


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM