【開原始碼】基於相機-鐳射雷達融合的三維實時跟蹤框架
阿新 • • 發佈:2022-12-08
以下內容來自從零開始機器人SLAM知識星球 每日更新內容
點選領取學習資料 → 機器人SLAM學習資料大禮包
論文# DeepFusionMOT: A 3D Multi-Object Tracking Framework Based onCamera-LiDAR Fusion with Deep Association
論文地址:[2202.12100] DeepFusionMOT: A 3D Multi-Object Trac...
作者單位:重慶大學
開原始碼:GitHub - wangxiyang2022/DeepFusionMOT: Code for RA...
在最近的文獻中,一方面,許多三維多目標跟蹤(MOT)的工作都關注於跟蹤精度而忽略了計算速度,通常通過設計相當複雜的代價函式和特徵提取器。另一方面,有些方法過於注重計算速度,而犧牲了跟蹤精度。針對這些問題,本文提出了一種魯棒、快速的基於相機-鐳射雷達融合的MOT方法,該方法在精度和速度之間取得了良好的平衡。基於相機和鐳射雷達感測器的特點,設計了一種有效的深度關聯機制,並將其嵌入到MOT方法中。該關聯機制實現了當物體距離較遠且僅被相機檢測到時,在二維域內對物體進行疊加;當物體出現在鐳射雷達視場內時,用獲得的三維資訊更新二維軌跡,實現了二維和三維軌跡的平滑融合。基於典型資料集的大量實驗表明,該方法在跟蹤精度和處理速度方面均優於現有的MOT方法。
本文貢獻如下:
1、提出了一種基於相機-鐳射雷達融合的三維實時跟蹤框架,在典型的跟蹤資料集上實現了優異的運動效能。
2、提出了一種新的深度關聯機制,該機制充分利用了相機和LiDAR的特點。這種機制不涉及任何複雜的成本函式或特徵提取網路,同時有效地融合了2D和3D軌跡。
3、提出的跟蹤框架具有快速的計算速度和易於實時實現。
4、提出的跟蹤框架可以與任意2D和3D檢測器結合使用,這使得它廣泛適用於各種場景。
以上內容來自從零開始機器人SLAM知識星球 每日更新內容