Stap 3: 3D rectificatie
Specifiek, we gebruiken het 3D reconstructie sublibrary om ons te hulp bij het verkrijgen van 3D-informatie. Deze bibliotheek laat ons toe om een paar beelden nemen en 3D punt in ruimte voor elke pixel te verkrijgen. Heel eenvoudig het algoritme werkt als volgt:
1. Zoek regio's van elke afbeelding die met elkaar overeenkomen. Bijvoorbeeld de certificaathouder linkeroog in elke afbeelding.
2. Bereken de hoeveelheid beweging, in pixel afstand, dat elke regio tussen foto's verplaatst.
3. Hoe meer verplaatst een gebied, de dichter dat het aan de camera. Daarom door te veel elke pixel verplaatst tussen foto's weten kunnen we komen met een 3D locatie voor elk punt ten opzichte van alle anderen in de afbeelding.
Er zijn sommige dingen op te merken over dit proces. Dit algoritme is meestal afhankelijk van een heleboel dingen over de wereld waarin de foto's werden genomen om te komen met goede drie dimensionale informatie weten. Onze benadering van deze 3D-modellen maken is zowel nieuwe en moeilijk omdat we proberen om dit te doen zonder veel van deze kennis over de buitenwereld. Namelijk zijn de grootste dingen die ontbreekt de intrinsieke en extrinsieke camera parameters . Intrinsieke camera parameters hebben voor dingen zoals vervorming in de lens waar extrinsieke parameters voor dingen zoals het exacte bedrag van afstand de camera verplaatst aanpassen tussen aanpassen. Onze systeem maakt (waarschijnlijk slecht) aannames over beide en dus zeer nauwkeurig puntenwolken op dit moment geen produceren. Een ruimte voor verdere verbetering omvat zeker proberen te schatten deze parameters beter.
De bijgevoegde afbeeldingen tonen een 2D weergave van onze puntenwolk waar de witter per pixel is de dichter bij de camera is.