Wat is de nauwkeurigheid?

Deze vraag wordt vaak gesteld. Niet onterecht natuurlijk, want vaak willen we de beelden gebruiken om iets te meten. Maar een antwoord is niet zo simpel. In dit artikel probeer ik meer uitleg te geven over wat we verstaan onder nauwkeurigheid in relatie tot fotogrammetrie. Hierbij maken we onderscheid in relatieve en absolute nauwkeurigheid.

Relatieve nauwkeurigheid

Bij een relatieve nauwkeurigheid gaat het over de nauwkeurigheid in een model in relatie tot de werkelijkheid. Als bijvoorbeeld de werkelijke afstand tussen twee kozijnen of de grootte van een daklengte overeenkomen met de waarden in de reconstructie (het model), dan is er sprake van een hoge relatieve nauwkeurigheid.

Voor het bepalen van afstanden, hoogtes en volumes is vaak een redelijke relatieve nauwkeurigheid voldoende. Wat redelijk is – is natuurlijk nogal lastig te duiden, maar vaak is enkele centimeters voldoende.

Absolute nauwkeurigheid

Bij een absolute nauwkeurigheid gaat het over de nauwkeurigheid van een model in relatie tot de werkelijke positie op aarde. Als bijvoorbeeld een 3D reconstructie van een gebouw niet op de juiste geografische locatie wordt weergegeven, is er sprake van een lage absolute nauwkeurigheid. Desalniettemin kan de relatieve nauwkeurigheid hoog zijn; elke baksteen en voeg is als zodanig herkenbaar.

Voor GIS toepassingen (geografische informatie systemen), dus locatie / plaatsbepaling op aarde, is absolute nauwkeurigheid erg belangrijk. Een huis op de weg zetten in plaats van er naast is niet de bedoeling. Wellicht mag de plaatsing wel 5 centimeter afwijken, maar geen 5 meter.

© Pix4d image

De waarde die we toekennen aan ‘nauwkeurigheid’ hangt dus af van de toepassing, wat je er mee wilt doen. Wat bepaalt dan de kwaliteit van een project? Een belangrijke maat voor gewenste ‘nauwkeurigheid’ is de Ground Sampling Distance of GSD. De GSD is afhankelijk van diverse factoren.

Ground Sampling Distance

Elke pixel in de camera ‘ziet’ een deel van de scene, zeg maar de ‘footprint’ op het aardoppervlak. De grootte van de footprint, de kegel, of makkelijker: het vierkantje, is mede afhankelijk van de hoogte tot het aardoppervlak. Hoe hoger de camera, de pixel(s), hoe groter deze ‘footprint’, des te minder details. De GSD is gedefinieerd als de afstand tussen de centrumpunten van twee naastgelegen pixels (twee footprints), gemeten op de grond.

Voorbeeld: een GSD van 3 centimeter betekent: één sensorpixel levert één pixel in het plaatje en komt overeen met 3 (lineaire) centimeters op de grond. Doen we de aanname dat sensorpixels vierkant zijn en strak tegen elkaar liggen, dan beslaat één sensorpixel, en dus één imagepixel, een oppervlak van 9 vierkante centimeter op de grond (3 centimeter x 3 centimeter). Een lagere GSD betekent dus meer detail. Door lager te gaan vliegen kan bijvoorbeeld een lagere GSD worden bereikt. Maar lager vliegen betekent ook dat je meer tijd (batterijen!!) nodig hebt om het gebied in kaart te brengen. En als je op een bepaalde hoogte over een glooiend terrein vliegt … varieert de GSD dus.

Kun je in generieke zin dan überhaupt iets zeggen over de nauwkeurigheid? Over het algemeen wordt gesteld dat een goede reconstructie:

  • een relatieve nauwkeurigheid van 1 tot 3 keer de GSD (Ground Sampling Distance) verwachten en
  • een absolute nauwkeurigheid van 1 tot 2 keer de GSD in het horizontale vlak (x,y) en 1 tot 3 keer in het verticale vlak (z).
© Pix4d image

Sensor – grootte

Uiteraard is er een relatie tussen sensor grootte (zowel in pixels als millimeters), resolutie (GSD) en hoogte. De vlieghoogte H [m] kunnen we berekenen met:

H [m] = (beeld breedte [pixels] * GSD [cm/pixel] * focal length [mm]) /

(100 * sensor breedte [mm])

De grootte van de sensor bepaalt mede het aantal pixel dat je tot je beschikking hebt. Belangrijk is ook de vorm, hoe groot / klein een enkele pixel is [micrometers] en de onderlinge afstand (dode of blinde ruimte).

Sensor – shutter

Hiermee bedoelen we de wijze waarop de beeldsensor wordt uitgelezen: via een rolling-shutter of snap-shot methode.

Bij een snap-shot camera worden alle beeldpixels op hetzelfde moment gevuld met sensordata en uitgelezen. Bij een rolling-shutter systeem gebeurd dit lijn voor lijn. In het laatste geval betekent dit bij een vliegend platvorm: ten tijde van het vullen / lezen van de laatste lijn pixels, is het platvorm op een andere plaats -fysiek- dan toen de eerste lijn pixels werd gevuld / gelezen; hij is namelijk doorgevlogen met een bepaalde snelheid. Hoe hoger de snelheid hoe groter de afgelegde afstand. Dit geeft dus een onnauwkeurigheid bij een latere reconstructie. Zie dit artikel.

Sensor – gevoeligheid

Bij de gevoeligheid denken we aan de signaal / ruis verhouding (signal-to-noise ratio). Dit hangt vaak samen met het materiaal waarvan de sensor is gemaakt. Veelal CMOS. Maar ook eventuele ‘over- of ondersturing’ van het signaal is onwenselijk. Bij grote contrasten (schaduw en veel zon) kan het dynamische bereik problemen leveren. Zowel in volledig zwarte (ondersturing) als volledige witte pixels (oversturing) zit geen informatie, anders dan nul (minimale bitwaarde) en maximale bitwaarde (bij een byte dus 255). Het vliegen met een automatisch corrigerend dynamisch bereik lijkt de oplossing, maar is dit niet. De camera is continue aan het variëren in het dynamisch bereik, waardoor de pixels van beelden moeilijker aan elkaar te relateren zijn tijdens de reconstructiefase.

© Pix4d image

Focal length

Hoe hoger je vliegt, des te lager de spatiële resolutie op de grond. Maar hoe sneller een gebied is ingevlogen vanwege de grotere ‘footprint’.

Wil je toch de footprint verkleinen, dan kun je een andere camera / lens kiezen. Bijvoorbeeld met een grotere focal-length. Zie nevenstaande figuur.

Voor gebouwen is vaak meer resolutie gewenst dan voor het vliegen over landbouwgrond. Op die manier kun je per project afwegen wat de beste keuze is van je materiaal of vluchtuitvoering.

© Pix4d image

Image-overlap

Voor analyse toepassingen is het opnemen van één beeld vaak onvoldoende. Zeker voor het in kaart brengen van een gebied is het nodig meerdere beelden te schieten en te koppelen of ‘stitchen’. Daar is weliswaar software voor, maar deze kan zijn werk niet doen als de beelden onvoldoende herkenningspunten hebben of van slechte kwaliteit zijn. Ook hier zijn een paar overwegingen te maken.

Zie nevenstaande figuur. Voor laag vliegen geldt dat de zogenaamde image-rate hoog moet zijn om overlap te krijgen. Immers, de scene schiet snel onder de drone voorbij, zelfs al zou deze langzaam vliegen. Een hoge image-rate is haalbaar bij voldoende lichtsterkte bijvoorbeeld. Maar neem ook nog even de ‘snap-shot’ en ‘rolling-shutter’ problematiek mee in de overwegingen.

Door iets hoger te gaan vliegen gaat, met dezelfde vliegsnelheid en camera, de image-overlap omhoog. Wel boet je een beetje in op resolutie. Maar vaak is dit een prima ruil in relatie tot de voordelen; minder tijd nodig (in verband met batterijen!), grotere image-overlap, lagere image-rate.

Verbeteren absolute nauwkeurigheid

Hierboven hebben we vooral gesproken over enkele parameters die van invloed zijn op de relatieve nauwkeurigheid. Ten aanzien van de absolute nauwkeurigheid is ook een en ander te zeggen. We willen het ingevlogen gebied of object relateren aan een plaats op aarde. Dan zijn er ruwweg twee opties voor de plaatsbepaling:

  1. de on-board GPS van de drone (de positie wordt bij het beeld opgeslagen)
  2. referentiepunten op de grond (Ground Control Point of Tie Points)

GPS

De nauwkeurigheid van een GPS (Global Positioning System) is vaak enkele centimeters. GPS, DGPS (Differential GPS) en RTK (Real Time Kinematic) zijn bijvoorbeeld manieren om satelliet gegevens via een antenne op te vangen en te vertalen naar een globale positie. Hoe dat technisch werkt, voert hier te ver.

Zie ook deze website voor meer informatie.

GCP

Door Ground Control Points (GCP) of Tie Points (TP) te gebruiken, kan de nauwkeurigheid van de locatiebepaling aanzienlijk worden vergroot. De referentiepunten worden op de grond geplaatst en ingemeten. Dit inmeten kan met een tachymeter bijvoorbeeld. Een meetinstrument met millimeter nauwkeurigheid. Doordat de locatie van de referentiepunten nu op enkele millimeters bekend is, kunnen tijdens de processing fase deze gegevens worden ingevoerd in de software. Je koppelt dan het pixel (uit de beelden van GCP/TP) aan de bijbehorende inmeting.

Conclusie: alleen een hoge resolutie is niet zaligmakend

Nauwkeurigheid is dus een lastig begrip in de wereld van fotogrammetrie. Zeker als je bedenkt dat er zoveel variabelen zijn en diverse partijen ook allemaal hun eigen systemen en combinatie van systemen gebruiken. Zie hier een artikel over hoe verschillende systemen presteren.