讀Multimodal Motion Prediction with Stacked Transformers


讀Multimodal Motion Prediction with Stacked Transformers

paper | github(尚未更新代碼)
貢獻 | 模型框架 | 具體實現 | 其他需要注意

貢獻

  • 第一個使用堆疊Transformer
  • RTS
  • STOA

模型框架

mmTransformer
中間的三塊主干即堆疊的Transformer,分別用於提取軌跡地圖及交互信息;最后也是回歸軌跡和分數。采用新的基於區域的訓練策略來訓練網絡。

具體實現

  • 軌跡特征提取
    從目標車輛和臨近車輛的軌跡中,提取特征。由編碼器和解碼器組成。
  • 地圖特征提取
    接受軌跡特征和地圖數據(車道中心線的向量表示),輸出經地圖特征加權后的目標車輛軌跡特征和臨近車輛軌跡特征;
  • 交互特征提取
    在目標車輛軌跡特征與臨近車輛軌跡特征作輸入,但只解碼目標車輛特征以提高效率;
  • 軌跡解碼
    類似於LaneGCN,兩支:軌跡和分數;
  • Region-based Training Strategy
    [35]告訴我們,直接回歸預測軌跡,將導致模式平均問題,不能體現多模;只使用minFDE的預測軌跡來計算回歸和分類損失能解決這一問題;
    多模K越多,會導致模式崩潰問題;
    RTS即將預測軌跡歸類到按照真實軌跡終點聚類而成的幾個空間區域中,通過模型訓練優化改善每個區域中的預測表現;
    區域划分:將車輛旋轉到航向指向y軸正方向,按照終點來聚類,得到7個區域;
    計算歸於真實軌跡所在區域的每條預測軌跡的分類回歸損失,而不是最靠近的真實軌跡的那一條軌跡的損失;
    RTS
  • Loss Function
    用於回歸損失的Huber損失、用於評分的KL散度、區域分類損失、;
    回歸損失
    regLoss
    Huber損失: 相比平方誤差損失,Huber損失對於數據中異常值的敏感性要差一些。在值為0時,它也是可微分的。它基本上是絕對值,在誤差很小時會變為平方值。誤差使其平方值的大小如何取決於一個超參數δ,該參數可以調整。當δ~ 0時,Huber損失會趨向於MSE;當δ~ ∞(很大的數字),Huber損失會趨向於MAE。HuberLoss
    KL散度
    KL
    KL散度: 在概率論或信息論中,KL散度( Kullback–Leibler divergence),又稱相對熵(relative entropy),是描述兩個概率分布P和Q差異的一種方法。
    區域分類損失
    鼓勵到預測在正確的區域的軌跡有更高的分數,交叉傷損失函數;
    clsLoss
    中間層損失
    加速訓練過程
    整個損失函數
    totalLoss

其他需要注意

生成預測軌跡的兩種方法:

  • 基於概率生成模型:
  • 基於預定義軌跡的方法:
  • 回歸軌跡

兩種改善模式平均的機制:

  • 軌跡提議機制
  • 基於區域的訓練策略


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM