1. 程式人生 > >[硬體]三維點雲資料獲取

[硬體]三維點雲資料獲取

A laser mount on a tilting unit.

目前的硬體獲取資料出現了這麼個問題,應該是鐳射沒有安裝好,掃描方向沒有真正沿著鉛錘方向。考慮進行校準。

 初步校正了一下,可以差不多看了,不過發現北陽的誤差真的很大啊!北陽激光采集點本身需要運動補償嗎?

(PS:點雲資料誤差大的原因是計算角度是int型和double型轉換出現了問題,已經解決。2017/12/31備註)

目前三維點雲存在問題:重影,旋轉一圈之後獲取的資料產生了重影。

考慮兩方面的原因:(1)旋轉誤差,旋轉360度回不到0點。不僅僅是旋轉誤差,而是安裝三個方向都有可能存在誤差。(2)運動誤差。現在考慮先解決後面一個,進行運動補償!

在雲臺轉動很慢的情況下10deg/s仍然偏差很大,因此優先需要解決的應該是安裝誤差。

 

經過確定,重影問題是由於鐳射掃描面到旋轉中心的距離設定不準造成的。

除了安裝臺本身的距離,還要加上北陽鐳射的掃描高度41mm+(28/2)mm。這樣資料基本消除重影了。

不過資料仍處在問題。安裝誤差仍然沒有完全消除。

 

 之前的資料轉180度可以得到一幅基本完整的點雲,但是再轉180度得到的點雲與前面的點雲存在一定的旋轉誤差。很是奇怪。(備註:雲臺有安裝誤差)

折騰的許久,發現可能是雲臺的問題,原來雲臺每旋轉360度,會有0.21的偏差。應該是因為波特率和角度之間關係不能整除造成的吧。總之做了一個線性補償。現在資料基本成型了。如果說有問題的話,那就是北陽的鐳射實在是誤差不小。這個我估計也沒有辦法了!

補兩個圖,2013.3.29完成的工作,之前的一年八個月的工作可以串起來了。

相關推薦

[硬體]資料獲取

A laser mount on a tilting unit. 目前的硬體獲取資料出現了這麼個問題,應該是鐳射沒有安裝好,掃描方向沒有真正沿著鉛錘方向。考慮進行校準。  初步校正了一下,可以差不多看了,不過發現北陽的誤差真的很大啊!北陽激光采集點本身需要運動補償嗎? (PS:點雲資料誤差大的原

資料

轉載! 三維點雲 幾何空間的三維掃描資料(加紋理)GeometryHub(幾何空間) 歐特克的研究——數字210金歐特克的樣品掃描和影象資料研究辦公室。 自治系統實驗室(乙)鐳射和Kinect結構化和非結構化的資料環境。 這一組有一個有用的相關

【深度學習】資料集總結

點雲資料集總結 三維點雲資料,三維深度學習 1.ShapeNet ShapeNet是一個豐富標註的大規模點雲資料集,其中包含了55中常見的物品類別和513000個三維模型。 2.ShapeNetSem 這是一個小的資料庫,包含了270類的12000個物

通過Kinect的深度影象資料計算

在可以透過 OpenNI 讀取到 Kinect 的深度、色彩資訊之後,其實就可以試著用這些資訊,來重建 3D 的環境做顯示了~不過實際上,在前面的範例中所讀到的深度資訊,都算是原始資料,而且座標軸也都是感應器二維影像的座標系統,如果要重建 3D 場景的話,這些資訊都還是需要換算的;所幸,OpenNI 在 D

3D Registration 配準

待讀參考: https://blog.csdn.net/kaspar1992/article/details/54836222 https://www.cnblogs.com/yin52133/archive/2012/07/21/2602562.html https://blog.csdn.net/u

配準

作者:劉緣 連結:https://www.zhihu.com/question/34170804/answer/121533317 來源:知乎 著作權歸作者所有。商業轉載請聯絡作者獲得授權,非商業轉載請註明出處。   本科畢業設計做的點雲配準,對這個方面有一些初步理解,希望有所幫助~

#讀原始碼+論文# 分割Deep Learning Based Semantic Labelling of 3D Point Cloud in Visual SLAM

from Deep Learning Based Semantic Labelling of 3D Point Cloud in Visual SLAM 超體素方法進行預分割,將點雲根據相似性變成表層面片(surface patches)降低計算複雜度。  

基於深度學習的分類的介紹

轉自博主 particle,該文章翻譯自http://www.itzikbs.com/3d-point-cloud-classification-using-deep-learning    在過去的這些年裡,對二維影象已經有了大量深入的研究,並且有著長足的發

從PCL庫看依賴的相關知識

       第一次使用PCL庫還是2017年,當時為了提取火線(火場包絡線:凹包),因為凸包雖然很簡單,但是不符合實際火場分佈的情況,於是查詢到了PCL可以實現,於是熬了幾個夜,走馬觀花的安裝、測試最終參考程式碼實現了想要的功能,但是PCL真的是連一知半

基於深度學習的分類和分割(找了幾篇文章)

https://blog.csdn.net/bflong/article/details/79655200http://www.sohu.com/a/162727821_715754https://www.cnblogs.com/li-yao7758258/p/8182846

Kinect2.0資料獲取

#include "stdafx.h" #include "kinect.h" #include <iostream> #include <opencv2/core/core.hpp> #include <opencv2/highgui/highgui.hpp&g

用VS+Opencv3.1從雙目立體視差圖中重建

基本原理 基本流程 程式碼 本程式碼執行需要在VS上配置好opencv3.1+openNI+PCL,opencv3.1的配置可以在網上找到很多資料,openNI和PCL的配置可以參看上一篇博文下http://blog.csd

的地面分割演算法

1.https://www.sohu.com/a/154597666_715754 (“泡泡機器人SLAM”微信公眾號) 2. 基於改進形態學濾波(Progressive Morphological Filter)的地面點雲分割演算法,這個演算法本身用於處理高

VTK 重建和讀取.txt文件顯示

點雲重建 vtkSurfaceReconstructionFilter實現了一種隱式曲面重建的方法,即將曲面看作一個符號距離函式的等值面,曲面內外的距離值得符號函式相反,則零等值面即為所求的曲面。該方法需要對點雲資料進行網格劃分,然後估算每個點的切平面和方向,

PCL求取模型每曲率

最近在做有關實驗需要計算模型曲率,但是網上找了一圈也沒找到滿意的資料。最後發現PCL庫可以很方便的求取模型中每一個點的曲率,但是我們要想將PCL庫求得的曲率資料應用到自己的專案中需要將PCL庫與我們的專案進行結合,並且在PCL求出曲率後存放在自己的結構體中,這樣才能得到更適合

網絡——PointNet論文解讀

PointNet1 是斯坦福大學研究人員提出的一個點雲處理網路,與先前工作的不同在於這一網路可以直接輸入無序點雲進行處理,而無序將資料處理成規則的3Dvoxel形式進行處理。輸入點雲順序對於網路的輸出結果沒有影響,同時也可以處理旋轉平移後的點雲資料。 點雲是

兩種密度聚類方法的研究與對比

轉載請說明出處: http://blog.csdn.net/zhubaohua_bupt/article/details/70194047 基於密度的點雲聚類演算法可以識別三維點雲物體,也可以對三維點雲去噪處理。 本文研究了兩種基於密度的點雲聚類方法,先簡單介紹一下兩種演

將velodyne鐳射的資料(16條射線)轉換到laserscan

真正實現機制是velodyne裡的velodyne_laserscan執行velodyne_pointcloud中的VLP16_points.launch第11行是修改感測器掃描的距離,第49行是將感測器的點雲資料(16條射線)抽取出一條,轉換為laserscan.轉換規則如

CT重建及視覺化資料:opengl+VTK+PCL

自己做過邊緣輪廓三維重建方面的工作,今天看到一篇CT三維重建的介紹性質的文章挺感興趣的,附錄一下: CT三維重建主要有六種基本後處理方法 多層面重建(MPR) 最大密度投影(MIP) 表面陰影遮蓋(SSD) 容積漫遊技術(VRT)

[硬體]資料採集2

  採用GMapping定位,增加一個垂直掃描的2D鐳射實時採集三維點雲。   發現GMapping的定位精度還是沒有辦法滿足高精度點雲採集位姿的需要。尤其是當旋轉的速度比較大的時候,位姿精度更差。原因是掃描匹配可以獲取較高精度的位姿,但是兩次掃描匹配之間的運動只有里程計相對運動資料,因此里程計誤差嚴重。