Stap 6: 3D Vision sensoren programmeren, die met behulp van R.O.S en Python
In deze stap gaan we om te zien hoe een 3D visie sensor zoals Kinect interface / Asus Xtion Pro in R.O.S.
We kunnen installeren van bestuurder van het systeem van de 3D-sensor, middleware genaamd OpenNI en de R.O.S bestuurder/lancering bestanden met behulp van volgende commando
$ sudo apt-get install ros-indigo-openni-launch
Na het installeren van stuurprogramma, kunt u 3D-sensor met de volgende opdracht
$ roslaunch openni_launch openni.launch
We kunnen de puntenwolk van 3D sensor bekijken in Rviz met behulp van volgende commando. U ziet de puntenwolk visualisatie screenshot van de image gallery
$ rosrun rviz rviz
We zijn met behulp van 3D-sensor voor de functionaliteit van de laserscanner die gebruikt voor het uitvoeren van SLAM spottende. De laserscanner is zeer duur, zodat de totale begroting van de robot het nabootsen van de functionaliteiten van laserscanner met behulp van 3D-visie sensor kan verminderen.
De wolk puntgegevens gegenereerd wordt niet door de 3D-sensor maar het verwerkt binnen het ROS openni stuurprogramma.
De wolk puntgegevens kunnen converteren naar laser scanner gegevens met behulp van de volgende ROS-pakket
Puntenwolk omzetten laserscanner gegevens
Pakketten helpt bij het converteren van 3D-sensor diepte afbeelding laser scan gegevens de depthimage_to_laserscan en de pointcloud_to_laserscan .
U kunt zien van de screenshots van geconverteerde puntenwolk aan laser scan van de image gallery