[硬體]三維點雲資料獲取
A laser mount on a tilting unit.
目前的硬體獲取資料出現了這麼個問題,應該是鐳射沒有安裝好,掃描方向沒有真正沿著鉛錘方向。考慮進行校準。
初步校正了一下,可以差不多看了,不過發現北陽的誤差真的很大啊!北陽激光采集點本身需要運動補償嗎?
(PS:點雲資料誤差大的原因是計算角度是int型和double型轉換出現了問題,已經解決。2017/12/31備註)
目前三維點雲存在問題:重影,旋轉一圈之後獲取的資料產生了重影。
考慮兩方面的原因:(1)旋轉誤差,旋轉360度回不到0點。不僅僅是旋轉誤差,而是安裝三個方向都有可能存在誤差。(2)運動誤差。現在考慮先解決後面一個,進行運動補償!
經過確定,重影問題是由於鐳射掃描面到旋轉中心的距離設定不準造成的。
除了安裝臺本身的距離,還要加上北陽鐳射的掃描高度41mm+(28/2)mm。這樣資料基本消除重影了。
不過資料仍處在問題。安裝誤差仍然沒有完全消除。
之前的資料轉180度可以得到一幅基本完整的點雲,但是再轉180度得到的點雲與前面的點雲存在一定的旋轉誤差。很是奇怪。(備註:雲臺有安裝誤差)
折騰的許久,發現可能是雲臺的問題,原來雲臺每旋轉360度,會有0.21的偏差。應該是因為波特率和角度之間關係不能整除造成的吧。總之做了一個線性補償。現在資料基本成型了。如果說有問題的話,那就是北陽的鐳射實在是誤差不小。這個我估計也沒有辦法了!
補兩個圖,2013.3.29完成的工作,之前的一年八個月的工作可以串起來了。
相關推薦
[硬體]三維點雲資料獲取
A laser mount on a tilting unit. 目前的硬體獲取資料出現了這麼個問題,應該是鐳射沒有安裝好,掃描方向沒有真正沿著鉛錘方向。考慮進行校準。 初步校正了一下,可以差不多看了,不過發現北陽的誤差真的很大啊!北陽激光采集點本身需要運動補償嗎? (PS:點雲資料誤差大的原
三維點雲資料集
轉載! 三維點雲 幾何空間的三維掃描資料(加紋理)GeometryHub(幾何空間) 歐特克的研究——數字210金歐特克的樣品掃描和影象資料研究辦公室。 自治系統實驗室(乙)鐳射和Kinect結構化和非結構化的資料環境。 這一組有一個有用的相關
【深度學習】三維點雲資料集總結
點雲資料集總結 三維點雲資料,三維深度學習 1.ShapeNet ShapeNet是一個豐富標註的大規模點雲資料集,其中包含了55中常見的物品類別和513000個三維模型。 2.ShapeNetSem 這是一個小的資料庫,包含了270類的12000個物
通過Kinect的深度影象資料計算三維點雲
在可以透過 OpenNI 讀取到 Kinect 的深度、色彩資訊之後,其實就可以試著用這些資訊,來重建 3D 的環境做顯示了~不過實際上,在前面的範例中所讀到的深度資訊,都算是原始資料,而且座標軸也都是感應器二維影像的座標系統,如果要重建 3D 場景的話,這些資訊都還是需要換算的;所幸,OpenNI 在 D
3D Registration 三維點雲配準
待讀參考: https://blog.csdn.net/kaspar1992/article/details/54836222 https://www.cnblogs.com/yin52133/archive/2012/07/21/2602562.html https://blog.csdn.net/u
三維點雲配準
作者:劉緣 連結:https://www.zhihu.com/question/34170804/answer/121533317 來源:知乎 著作權歸作者所有。商業轉載請聯絡作者獲得授權,非商業轉載請註明出處。 本科畢業設計做的點雲配準,對這個方面有一些初步理解,希望有所幫助~
#讀原始碼+論文# 三維點雲分割Deep Learning Based Semantic Labelling of 3D Point Cloud in Visual SLAM
from Deep Learning Based Semantic Labelling of 3D Point Cloud in Visual SLAM 超體素方法進行預分割,將點雲根據相似性變成表層面片(surface patches)降低計算複雜度。
基於深度學習的三維點雲分類的介紹
轉自博主 particle,該文章翻譯自http://www.itzikbs.com/3d-point-cloud-classification-using-deep-learning 在過去的這些年裡,對二維影象已經有了大量深入的研究,並且有著長足的發
從PCL庫看三維點雲依賴的相關知識
第一次使用PCL庫還是2017年,當時為了提取火線(火場包絡線:凹包),因為凸包雖然很簡單,但是不符合實際火場分佈的情況,於是查詢到了PCL可以實現,於是熬了幾個夜,走馬觀花的安裝、測試最終參考程式碼實現了想要的功能,但是PCL真的是連一知半
基於深度學習的三維點雲分類和分割(找了幾篇文章)
https://blog.csdn.net/bflong/article/details/79655200http://www.sohu.com/a/162727821_715754https://www.cnblogs.com/li-yao7758258/p/8182846
Kinect2.0點雲資料獲取
#include "stdafx.h" #include "kinect.h" #include <iostream> #include <opencv2/core/core.hpp> #include <opencv2/highgui/highgui.hpp&g
用VS+Opencv3.1從雙目立體視差圖中重建三維點雲
基本原理 基本流程 程式碼 本程式碼執行需要在VS上配置好opencv3.1+openNI+PCL,opencv3.1的配置可以在網上找到很多資料,openNI和PCL的配置可以參看上一篇博文下http://blog.csd
三維點雲的地面分割演算法
1.https://www.sohu.com/a/154597666_715754 (“泡泡機器人SLAM”微信公眾號) 2. 基於改進形態學濾波(Progressive Morphological Filter)的地面點雲分割演算法,這個演算法本身用於處理高
VTK 點雲重建和讀取.txt文件顯示三維點雲
點雲重建 vtkSurfaceReconstructionFilter實現了一種隱式曲面重建的方法,即將曲面看作一個符號距離函式的等值面,曲面內外的距離值得符號函式相反,則零等值面即為所求的曲面。該方法需要對點雲資料進行網格劃分,然後估算每個點的切平面和方向,
PCL求取三維點雲模型每點曲率
最近在做有關實驗需要計算模型曲率,但是網上找了一圈也沒找到滿意的資料。最後發現PCL庫可以很方便的求取模型中每一個點的曲率,但是我們要想將PCL庫求得的曲率資料應用到自己的專案中需要將PCL庫與我們的專案進行結合,並且在PCL求出曲率後存放在自己的結構體中,這樣才能得到更適合
三維點雲網絡——PointNet論文解讀
PointNet1 是斯坦福大學研究人員提出的一個點雲處理網路,與先前工作的不同在於這一網路可以直接輸入無序點雲進行處理,而無序將資料處理成規則的3Dvoxel形式進行處理。輸入點雲順序對於網路的輸出結果沒有影響,同時也可以處理旋轉平移後的點雲資料。 點雲是
兩種三維點雲密度聚類方法的研究與對比
轉載請說明出處: http://blog.csdn.net/zhubaohua_bupt/article/details/70194047 基於密度的點雲聚類演算法可以識別三維點雲物體,也可以對三維點雲去噪處理。 本文研究了兩種基於密度的點雲聚類方法,先簡單介紹一下兩種演
將velodyne三維鐳射的點雲資料(16條射線)轉換到laserscan
真正實現機制是velodyne裡的velodyne_laserscan執行velodyne_pointcloud中的VLP16_points.launch第11行是修改感測器掃描的距離,第49行是將感測器的點雲資料(16條射線)抽取出一條,轉換為laserscan.轉換規則如
CT三維重建及三維視覺化資料:opengl+VTK+PCL點雲庫
自己做過邊緣輪廓三維重建方面的工作,今天看到一篇CT三維重建的介紹性質的文章挺感興趣的,附錄一下: CT三維重建主要有六種基本後處理方法 多層面重建(MPR) 最大密度投影(MIP) 表面陰影遮蓋(SSD) 容積漫遊技術(VRT)
[硬體]點雲資料採集2
採用GMapping定位,增加一個垂直掃描的2D鐳射實時採集三維點雲。 發現GMapping的定位精度還是沒有辦法滿足高精度點雲採集位姿的需要。尤其是當旋轉的速度比較大的時候,位姿精度更差。原因是掃描匹配可以獲取較高精度的位姿,但是兩次掃描匹配之間的運動只有里程計相對運動資料,因此里程計誤差嚴重。