1. 程式人生 > 實用技巧 >綜述|視覺與慣導,視覺與深度學習SLAM

綜述|視覺與慣導,視覺與深度學習SLAM

點選上方“3D視覺工坊”,選擇“星標”

乾貨第一時間送達

SLAM包含了兩個主要的任務:定位與構圖,在移動機器人或者自動駕駛中,這是一個十分重要的問題:機器人要精確的移動,就必須要有一個環境的地圖,那麼要構建環境的地圖就需要知道機器人的位置。

本系列文章主要分成四個部分:

在第一部分中,將介紹Lidar SLAM,包括Lidar感測器,開源Lidar SLAM系統,Lidar中的深度學習以及挑戰和未來。

第二部分重點介紹了Visual SLAM,包括相機感測器,不同稠密SLAM的開源視覺SLAM系統。

第三部分介紹視覺慣性里程法SLAM,視覺SLAM中的深度學習以及未來。

第四部分中,將介紹鐳射雷達與視覺的融合。

視覺SLAM的穩定性是一項技術挑戰。因為基於單目的視覺SLAM需要初始化、尺度的不確定性和尺度漂移等問題[1]。儘管立體相機和RGB-D相機可以解決初始化和縮放的問題,但也存在一些不容忽視的問題,如運動速度快、視角小、計算量大、遮擋、特徵丟失、動態場景和光照變換等。針對以上這些問題感測器的融合方案逐漸流行起來,IMU與相機融合的視覺里程計成為研究熱點。

視覺與慣導

論文[2][3][4]是比較早期對VIO進行的一些研究。[5][6]給出了視覺慣導里程計的數學證明。而論文[7]則使用捆集約束演算法對VIO進行穩健初始化。特別是tango[8]、Dyson 360 Eye和hololens[9]可以算的上是VIO真正的產品,得到了很好的反饋。除此之外,蘋果的ARkit(filterbase)、谷歌的ARcore(filterbase)、uSens的Insideout都是VIO技術。下面就介紹一些開源VIO系統[10]:

•SSF:(鬆耦合,基於濾波的方法)是基於EKF的時延補償的單感測器和多感測器融合框架[11]。

•MSCKF:(緊耦合,基於濾波的方法)為Google Tango所採用,基於擴充套件Kalman濾波器[12]。類似的工作有MSCKF-VIO[13],並且程式碼開源了。

•ROVIO:(緊耦合,基於濾波器的方法)是一種基於擴充套件卡爾曼濾波器VIO方法,可跟蹤3D特徵和影象塊特徵[14]。

•OKVIS:(緊耦合,基於優化的方法)是一個經典的基於關鍵幀的視覺慣性SLAM[15]開源方案。支援單目和立體相機的滑動視窗估計器。

•VINS:VINS Mono(緊密耦合,基於優化的方法),論文[16]是單目視覺慣導的實時SLAM框架。開原始碼執行在Linux上,並集成了ROS。

VINS Mobile[17][18]是一款執行在相容iOS裝置上的實時單目視覺慣性里程計。此外,VINS Fusion支援多種視覺慣性感測器型別(GPS、單攝像頭+IMU、立體聲攝像頭+IMU,甚至僅立體攝像頭)。它具有位置校準、時間對齊和閉環檢測等模組。

ICE-BA:(緊耦合,基於優化的方法)為視覺慣性SLAM提供了具有增量性、一致性且有效的捆集調整演算法,在滑動視窗演算法的基礎上進行區域性BA,在所有關鍵幀上並行全域性BA,並實時輸出每個幀的相機姿態和更新的地圖點[19]。

Maplab: :(緊密耦合,基於優化的方法)是一個開放的、面向研究的視覺慣性SLAM框架,用C++編寫,支援建立和處理多種SLAM方案。一方面,maplab可以看作是一個現成的視覺慣性構圖和定位系統。另一方面,maplab為研究社群提供了一系列多視窗的SLAM工具,包括地圖合併、視覺慣性批處理優化、環路閉合、三維密集重建[20]。

當然還有其他解決方案,比如基於ORB-SLAM的VI-ORB[21],這是一種基於優化的緊耦合方案,StructVIO[22]該方案能夠更好的應對AR應用中相機的快速運動和旋轉。其他的基於事件相機的VIO等系統這裡就不再一一列舉。

深度學習與視覺SLAM

目前,深度學習在計算機視覺方面起著至關重要的作用。隨著視覺SLAM的發展,越來越多的研究者開始關注基於深度學習的SLAM的研究。其中比較典型的就是語義SLAM,“語義SLAM”是指將語義資訊包含到SLAM系統中,通過提供高層次的理解、魯棒的效能、環境的感知和任務驅動感知來提高SLAM過程的效能和表示。接下來,我們將從以下幾個方面介紹具有語義資訊的SLAM的方案:

特徵與檢測:

基於單目視覺的 Pop-up SLAM [23]提出了實時單目平面SLAM,以證明 在低紋理環境下,語義理解可以提高狀態估計和稠密重建的精度。

論文[24]得到由卷積網路(convnet)預測的語義關鍵點。

LIFT[25]可以得到比SIFT更密集的特徵點。

DeepSLAM[26]在存在影象噪聲的情況下進行特徵點檢測,相比較傳統方案,具有顯著的效能差距。

SuperPoint[27]提出了一個自監督框架,適用於計算機視覺中大量多檢視幾何問題的興趣點檢測器和描述符的訓練。

GCN-SLAM[28]提出了一種基於深度學習的GCNv2網路,用於生成關鍵點和描述符。

論文[29]提出了融合3D形狀、位置和語義標籤的資訊SLAM方案。

cube SLAM(Monocular)是一個基於立方體模型的三維目標檢測與SLAM系統[30]。它實現了目標級的場景構建、定位和動態目標跟蹤。基於魚眼相機的SLAM方法介紹

論文[31]將cubeSLAM和Pop-up SLAM相結合,使地圖比基於特徵點的SLAM更稠密且準確的語義資訊。公眾號歷史文章有介紹。

識別與分割:

SLAM++[32]展示了一種新的面向物件的3D SLAM方案的主要優點,它充分利用了先驗知識的迴圈,即許多重複的場景、特定物件和結構構成。

論文[33]提出了結合了最先進的深度學習方法和基於單目攝像機視訊流的LSD-SLAM,通過具有空間一致性的連線關鍵幀之間的對應關係,將二維語義資訊轉化為三維點雲地圖資訊。

Semanticfusion[34]方法提出了將CNN和最先進的稠密SLAM融合方案,

ElasticFusion[35]是用來構建語義三維地圖。

MarrNet提出了一個端到端的可訓練框架,依次估計2.5D框架和3D物件形狀。

3DMV(RGB D)[36]結合RGB顏色和幾何資訊對RGB-D資訊進行三維語義分割。

Pix3D[37]從單個影象研究三維形狀建模。

scan complete[38]是一種資料驅動的方法,它以場景的不完全三維掃描作為輸入,並預測一個完整的三維模型以及每個體素的語義標籤。

Fusion++[39]是一個線上的物件級SLAM系統,它可以構建任意重構物件精確的三維點雲地圖。

SegMap[40]是一種基於分割方法的用於機器人定位、環境重建和語義提取的SLAM系統。

尺度恢復:

CNN-SLAM[41]是基於單目相機通過深度學習估計深度的工作,DeepVO[42]和GS3D[43以及UnDeepVO[44]是利用具有深度學習方法在單目相機中獲得6自由度的姿態和深度。

GeoNet[45]是一個聯合的無監督學習框架,用於從視訊中估計單目深度、光流以及自身的運動。CodeSLAM[46]提出了一種基於單個影象的深度圖,該深度圖可以與姿態變數聯合進行高效的優化。

Mono-stixels[47]利用動態場景中的深度、運動和語義資訊來估計深度。

GANVO[48]使用一個無監督的學習框架,從未標記的影象中提取6-DoF姿態和單目深度圖,使用深度卷積生成對抗網路。

GEN-SLAM[49]藉助於傳統的幾何SLAM和單目的拓撲約束輸出稠密點雲地圖。

動態SLAM

RDSLAM[50]是一種基於關鍵幀的線上表示和更新方法的實時單目SLAM系統。

DS-SLAM[51]是一個基於優化ORB-SLAM的語義資訊SLAM系統。語義資訊可以使SLAM系統在動態環境下具有更強的魯棒性。

MaskFusion是一個基於Mask R-CNN的實時、物件感知、語義和動態RGB-D SLAM系統。該系統即使在連續的、自運動中,也能用語義資訊對物體進行標註。

Detect SLAM[52]將SLAM與基於深度神經網路的目標檢測器結合起來,使這兩個功能在未知和動態環境中相互輔助。

DynaSLAM[53]是一個支援單目、立體和RGB-D相機在動態環境下輔助靜態地圖的SLAM系統。StaticFusion[54]提出了一種在動態環境中檢測運動目標並同時重建背景結構的魯棒密集RGB-D SLAM方法。

視覺SLAM的挑戰與未來

魯棒性和可移植性

視覺SLAM在光照變化、高動態環境、快速運動、劇烈旋轉和低紋理環境等仍然面臨著很大的挑戰。首先,全域性快門代替滾動快門是實現精準的相機姿態估計的基礎。像動態視覺感測器這樣的事件攝像機能夠每秒產生100萬個事件,足以在高速和高動態範圍內進行非常快速的運動。其次,利用邊緣、平面、曲面等語義特徵,甚至減少特徵依賴性,如用相鄰邊線的跟蹤、直接跟蹤或機器學習相結合,都可能成為更好的選擇。第三,基於SfM/SLAM的數學原理,精確的數學公式優於隱式深度學習。SLAM的未來可以預見,一種是基於智慧手機或無人機(UAV)等嵌入式平臺的SLAM,另一種是更加詳細的場景或者物體的三維重建、場景理解和深度學習。如何平衡實時性和準確性是一個至關重要的開放性問題。與動態、非結構化、複雜、不確定和大規模環境相關的解決方案還有待探索[55]。

多感測器融合

實際的機器人和硬體裝置通常攜帶了不止一種感測器,而往往是多個感測器的融合。例如,目前對手機VIO的研究將視覺資訊和IMU資訊結合起來,實現了兩種感測器的優勢互補,為SLAM的小型化和低成本提供了非常有效的解決方案。DeLS-3D[56]設計是一種融合攝像機視訊、運動感測器(GPS/IMU)和三維語義地圖的感測器融合方案,以實現系統的魯棒性和效率。感測器列表如下,但不限於鐳射雷達、聲納、IMU、紅外、攝像機、GPS、雷達等。感測器的選擇取決於環境和所需的地圖型別。

語義SLAM

事實上,人類識別物體的運動是基於感知而不是影象中的特徵。SLAM中的深度學習可以實現目標的識別和分割,幫助SLAM系統更好地感知周圍環境。語義SLAM也有利於全域性優化、閉環檢測和重定位。[57]這篇文章指出:傳統的SLAM方法依賴於點、線(PL-SLAM,StructSLAM)和平面等幾何特徵來推斷環境結構。而語義SLAM可以實現大規模場景中的高精度實時定位,它教會機器人可以像人類一樣的感知環境。

參考文獻

【1】Hauke Strasdat, J Montiel, and Andrew J Davison. Scale drift-aware large scale monocular slam. Robotics: Science and Systems VI, 2(3):7, 2010.

【2】 Stefan Leutenegger, Simon Lynen, Michael Bosse, Roland Siegwart, and Paul Furgale. Keyframe-based visual–inertial odometry using nonlinear optimization. The International Journal of Robotics Research, 34(3):314–334, 2015.

【3】 Guoquan Huang, Michael Kaess, and John J Leonard. Towards consistent visual-inertial navigation. In 2014 IEEE International Conference on Robotics and Automation (ICRA), pages 4926–4933. IEEE, 2014.

【4】 Mingyang Li and Anastasios I Mourikis. High-precision, consistent ekf-based visual-inertial odometry. The International Journal of Robotics Research, 32(6):690–711, 2013.

【5】Ra´ul Mur-Artal and Juan D Tard ´os. Visual-inertial monocular slam with map reuse. IEEE Robotics and Automation Letters, 2(2):796– 803, 2017.

【6】 Christian Forster, Luca Carlone, Frank Dellaert, and Davide Scaramuzza. On-manifold preintegration for real-time visual–inertial odometry. IEEE Transactions on Robotics, 33(1):1–21, 2016.

【7】Carlos Campos, J. M. M. Montiel, and Juan D. Tard ´os. Fast and robust initialization for visual-inertial slam. 2019 International Conference on Robotics and Automation (ICRA), pages 1288–1294, 2019.

【8】Mark Froehlich, Salman Azhar, and Matthew Vanture. An investigation of google tango R tablet for low cost 3d scanning. In ISARC. Proceedings of the International Symposium on Automation and Robotics in Construction, volume 34. Vilnius Gediminas Technical University, Department of Construction Economics , 2017.

【9】 Mathieu Garon, Pierre-Olivier Boulet, Jean-Philippe Doironz, Luc Beaulieu, and Jean-Franc¸ois Lalonde. Real-time high resolution 3d data on the hololens. In 2016 IEEE International Symposium on Mixed and Augmented Reality (ISMAR-Adjunct), pages 189–191. IEEE, 2016.

【10】Jeffrey Delmerico and Davide Scaramuzza. A benchmark comparison of monocular visual-inertial odometry algorithms for flying robots. In 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 2502–2509. IEEE, 2018.

【11】Stephan M Weiss. Vision based navigation for micro helicopters. PhD thesis, ETH Zurich, 2012.

[12] Anastasios I Mourikis and Stergios I Roumeliotis. A multi-state constraint kalman filter for vision-aided inertial navigation. In Proceedings 2007 IEEE International Conference on Robotics and Automation, pages 3565–3572. IEEE, 2007.

[13] Ke Sun, Kartik Mohta, Bernd Pfrommer, Michael Watterson, Sikang Liu, Yash Mulgaonkar, Camillo J Taylor, and Vijay Kumar. Robust stereo visual inertial odometry for fast autonomous flight. IEEE Robotics and Automation Letters, 3(2):965–972, 2018.

[14] Michael Bloesch, Sammy Omari, Marco Hutter, and Roland Siegwart. Robust visual inertial odometry using a direct ekf-based approach. In 2015 IEEE/RSJ international conference on intelligent robots and systems (IROS), pages 298–304. IEEE, 2015.

[15] Peiliang Li, Tong Qin, Botao Hu, Fengyuan Zhu, and Shaojie Shen. Monocular visual-inertial state estimation for mobile augmented reality. In 2017 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), pages 11–21. IEEE, 2017.

[16] Tong Qin and Shaojie Shen. Online temporal calibration for monocular visual-inertial systems. In 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 3662–3669. IEEE, 2018.

[17] Tong Qin and Shaojie Shen. Robust initialization of monocular visualinertial estimation on aerial robots. In 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 4225– 4232. IEEE, 2017.

[18] Zhenfei Yang and Shaojie Shen. Monocular visual–inertial state estimation with online initialization and camera–imu extrinsic calibration. IEEE Transactions on Automation Science and Engineering, 14(1):39– 51, 2016.

【19】Haomin Liu, Mingyu Chen, Guofeng Zhang, Hujun Bao, and Yingze Bao. Ice-ba: Incremental, consistent and efficient bundle adjustment for visual-inertial slam. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 1974–1982, 2018.

【20】T. Schneider, M. T. Dymczyk, M. Fehr, K. Egger, S. Lynen, I. Gilitschenski, and R. Siegwart. maplab: An open framework for research in visual-inertial mapping and localization. IEEE Robotics and Automation Letters, 2018.

[21] Ra´ul Mur-Artal and Juan D Tard ´os. Visual-inertial monocular slam with map reuse. IEEE Robotics and Automation Letters, 2(2):796– 803, 2017.

[22]Danping Zou, Yuanxin Wu, Ling Pei, Haibin Ling, and Wenxian Yu. Structvio: Visual-inertial odometry with structural regularity of manmade environments. IEEE Transactions on Robotics, 2019.

【23】] Shichao Yang, Yu Song, Michael Kaess, and Sebastian Scherer. Popup slam: Semantic monocular plane slam for low-texture environments. In 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1222–1229. IEEE, 2016.

【24】 Georgios Pavlakos, Xiaowei Zhou, Aaron Chan, Konstantinos G Derpanis, and Kostas Daniilidis. 6-dof object pose from semantic keypoints. In 2017 IEEE International Conference on Robotics and Automation (ICRA), pages 2011–2018. IEEE, 2017.

[25] Kwang Moo Yi, Eduard Trulls, Vincent Lepetit, and Pascal Fua. Lift: Learned invariant feature transform. In European Conference on Computer Vision, pages 467–483. Springer, 2016.

【26】Daniel DeTone, Tomasz Malisiewicz, and Andrew Rabinovich. Toward geometric deep slam. arXiv preprint arXiv:1707.07410, 2017.

[27] Daniel DeTone, Tomasz Malisiewicz, and Andrew Rabinovich. Superpoint: Self-supervised interest point detection and description. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pages 224–236, 2018.

【28】Jiexiong Tang, Ludvig Ericson, John Folkesson, and Patric Jensfelt. Gcnv2: Efficient correspondence prediction for real-time slam. arXiv preprint arXiv:1902.11046, 2019.

[29] Margarita Grinvald, Fadri Furrer, Tonci Novkovic, Jen Jen Chung, Cesar Cadena, Roland Siegwart, and Juan Nieto. Volumetric instanceaware semantic mapping and 3d object discovery. arXiv preprint arXiv:1903.00268, 2019.

【30】Shichao Yang and Sebastian Scherer. Cubeslam: Monocular 3-d object slam. IEEE Transactions on Robotics, 2019.

[31] Shichao Yang and Sebastian Scherer. Monocular object and plane slam in structured environments. IEEE Robotics and Automation Letters, 4(4):3145–3152, 2019.

【32】Renato F. Salas-Moreno, Richard A. Newcombe, Hauke Strasdat, Paul H. J. Kelly, and Andrew J. Davison. Slam++: Simultaneous localisation and mapping at the level of objects. In Computer Vision & Pattern Recognition, 2013.

[33] Xuanpeng Li and Rachid Belaroussi. Semi-dense 3d semantic mapping from monocular slam. 2016

【34】John McCormac, Ankur Handa, Andrew Davison, and Stefan Leutenegger. Semanticfusion: Dense 3d semantic mapping with convolutional neural networks. In 2017 IEEE International Conference on Robotics and automation (ICRA), pages 4628–4635. IEEE, 2017.

【35】Thomas Whelan, Renato F Salas-Moreno, Ben Glocker, Andrew J Davison, and Stefan Leutenegger. Elasticfusion: Real-time dense slam and light source estimation. The International Journal of Robotics Research, 35(14):1697–1716, 2016

【36】Jiajun Wu, Yifan Wang, Tianfan Xue, Xingyuan Sun, Bill Freeman, and Josh Tenenbaum. Marrnet: 3d shape reconstruction via 2.5 d sketches. In Advances in neural information processing systems, pages 540–550, 2017.

【37】Xingyuan Sun, Jiajun Wu, Xiuming Zhang, Zhoutong Zhang, Chengkai Zhang, Tianfan Xue, Joshua B Tenenbaum, and William T Freeman. Pix3d: Dataset and methods for single-image 3d shape modeling. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.

【38】Angela Dai, Daniel Ritchie, Martin Bokeloh, Scott Reed, J ¨urgen Sturm, and Matthias Nießner. Scancomplete: Large-scale scene completion and semantic segmentation for 3d scans. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 4578– 4587, 2018.

[39] John McCormac, Ronald Clark, Michael Bloesch, Andrew J. Davison, and Stefan Leutenegger. Fusion++: Volumetric object-level slam. 2018 International Conference on 3D Vision (3DV), pages 32–41, 2018.

[40] Renaud Dub´e, Andrei Cramariuc, Daniel Dugas, Juan Nieto, Roland Siegwart, and Cesar Cadena. Segmap: 3d segment mapping using datadriven descriptors. arXiv preprint arXiv:1804.09557, 2018.

【41】Keisuke Tateno, Federico Tombari, Iro Laina, and Nassir Navab. Cnnslam: Real-time dense monocular slam with learned depth prediction. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 6243–6252, 2017.

【42】Vikram Mohanty, Shubh Agrawal, Shaswat Datta, Arna Ghosh, Vishnu Dutt Sharma, and Debashish Chakravarty. Deepvo: A deep learning approach for monocular visual odometry. arXiv preprint arXiv:1611.06069, 2016.

[43] Buyu Li, Wanli Ouyang, Lu Sheng, Xingyu Zeng, and Xiaogang Wang. Gs3d: An efficient 3d object detection framework for autonomous driving. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 1019–1028, 2019.

[44] Ruihao Li, Sen Wang, Zhiqiang Long, and Dongbing Gu. Undeepvo: Monocular visual odometry through unsupervised deep learning. In 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 7286–7291. IEEE, 2018.

【45】 Zhichao Yin and Jianping Shi. Geonet: Unsupervised learning of dense depth, optical flow and camera pose. In CVPR, 2018.

[46] Michael Bloesch, Jan Czarnowski, Ronald Clark, Stefan Leutenegger, and Andrew J Davison. Codeslamlearning a compact, optimisable representation for dense visual slam. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 2560– 2568, 2018.

[47] Fabian Brickwedde, Steffen Abraham, and Rudolf Mester. Monostixels: monocular depth reconstruction of dynamic street scenes. In 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 1–7. IEEE, 2018.

[48] Yasin Almalioglu, Muhamad Risqi U. Saputra, Pedro Porto Buarque de Gusm˜ao, Andrew Markham, and Agathoniki Trigoni. Ganvo: Unsupervised deep monocular visual odometry and depth estimation with generative adversarial networks. 2019 International Conference on Robotics and Automation (ICRA), pages 5474–5480, 2018.

[49] Punarjay Chakravarty, Praveen Narayanan, and Tom Roussel. Genslam: Generative modeling for monocular simultaneous localization and mapping. arXiv preprint arXiv:1902.02086, 2019

【50】Wei Tan, Haomin Liu, Zilong Dong, Guofeng Zhang, and Hujun Bao. Robust monocular slam in dynamic environments. In 2013 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), pages 209–218. IEEE, 2013.

[51] Chao Yu, Zuxin Liu, Xin-Jun Liu, Fugui Xie, Yi Yang, Qi Wei, and Qiao Fei. Ds-slam: A semantic visual slam towards dynamic environments. In 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1168–1174. IEEE, 2018.

【52】Fangwei Zhong, Wang Sheng, Ziqi Zhang, China Chen, and Yizhou Wang. Detect-slam: Making object detection and slam mutually beneficial. In IEEE Winter Conference on Applications of Computer Vision, 2018.

[53] Berta Bescos, Jos´e M F´acil, Javier Civera, and Jos´e Neira. Dynaslam: Tracking, mapping, and inpainting in dynamic scenes. IEEE Robotics and Automation Letters, 3(4):4076–4083, 2018.

[54] Raluca Scona, Mariano Jaimez, Yvan R Petillot, Maurice Fallon, and Daniel Cremers. Staticfusion: Background reconstruction for dense rgb-d slam in dynamic environments. In 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 1–9. IEEE, 2018

【55】Muhammad Sualeh and Gon-Woo Kim. Simultaneous localization and mapping in the epoch of semantics: A survey. International Journal of Control, Automation and Systems, 17(3):729–742, 2019.

【56】Peng Wang, Ruigang Yang, Binbin Cao, Wei Xu, and Yuanqing Lin. Dels-3d: Deep localization and segmentation with a 3d semantic map. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 5860–5869, 2018.

【57】Nikolay Atanasov, Sean L Bowman, Kostas Daniilidis, and George J Pappas. A unifying view of geometry, semantics, and data association in slam. In IJCAI, pages 5204–5208, 2018.

本文僅做學術分享,如有侵權,請聯絡刪文。

下載1

在「3D視覺工坊」公眾號後臺回覆:3D視覺即可下載 3D視覺相關資料乾貨,涉及相機標定、三維重建、立體視覺、SLAM、深度學習、點雲後處理、多檢視幾何等方向。

下載2

在「3D視覺工坊」公眾號後臺回覆:3D視覺github資源彙總即可下載包括結構光、標定原始碼、缺陷檢測原始碼、深度估計與深度補全原始碼、點雲處理相關原始碼、立體匹配原始碼、單目、雙目3D檢測、基於點雲的3D檢測、6D姿態估計原始碼彙總等。

下載3

在「3D視覺工坊」公眾號後臺回覆:相機標定即可下載獨家相機標定學習課件與視訊網址;後臺回覆:立體匹配即可下載獨家立體匹配學習課件與視訊網址。

重磅!3DCVer-學術論文寫作投稿交流群已成立

掃碼新增小助手微信,可申請加入3D視覺工坊-學術論文寫作與投稿微信交流群,旨在交流頂會、頂刊、SCI、EI等寫作與投稿事宜。

同時也可申請加入我們的細分方向交流群,目前主要有3D視覺CV&深度學習SLAM三維重建點雲後處理自動駕駛、CV入門、三維測量、VR/AR、3D人臉識別、醫療影像、缺陷檢測、行人重識別、目標跟蹤、視覺產品落地、視覺競賽、車牌識別、硬體選型、學術交流、求職交流等微信群。

一定要備註:研究方向+學校/公司+暱稱,例如:”3D視覺+ 上海交大 + 靜靜“。請按照格式備註,可快速被通過且邀請進群。原創投稿也請聯絡。

▲長按加微信群或投稿

▲長按關注公眾號

3D視覺從入門到精通知識星球:針對3D視覺領域的知識點彙總、入門進階學習路線、最新paper分享、疑問解答四個方面進行深耕,更有各類大廠的演算法工程人員進行技術指導。與此同時,星球將聯合知名企業釋出3D視覺相關演算法開發崗位以及專案對接資訊,打造成集技術與就業為一體的鐵桿粉絲聚集區,近2000星球成員為創造更好的AI世界共同進步,知識星球入口:

學習3D視覺核心技術,掃描檢視介紹,3天內無條件退款

圈裡有高質量教程資料、可答疑解惑、助你高效解決問題

覺得有用,麻煩給個贊和在看~