Wetenschap
Het MIT-systeem was in staat om afbeeldingen van objecten op te lossen en hun diepte te meten op een afstand van 57 centimeter. Krediet:Melanie Gonick/MIT
MIT-onderzoekers hebben een systeem ontwikkeld dat afbeeldingen kan produceren van objecten die zijn gehuld in mist die zo dik is dat het menselijk zicht er niet doorheen kan. Het kan ook de afstand van de objecten meten.
Het onvermogen om met mistige rijomstandigheden om te gaan, is een van de belangrijkste obstakels geweest voor de ontwikkeling van autonome voertuignavigatiesystemen die gebruik maken van zichtbaar licht, die de voorkeur hebben boven op radar gebaseerde systemen vanwege hun hoge resolutie en het vermogen om verkeersborden en rijstrookmarkeringen te lezen. Dus, het MIT-systeem zou een cruciale stap kunnen zijn in de richting van zelfrijdende auto's.
De onderzoekers testten het systeem met een kleine tank water met de vibrerende motor van een luchtbevochtiger erin ondergedompeld. In mist zo dicht dat het menselijk zicht slechts 36 centimeter kon doordringen, het systeem was in staat om afbeeldingen van objecten op te lossen en hun diepte te meten op een afstand van 57 centimeter.
Zevenenvijftig centimeter is geen grote afstand, maar de mist die voor het onderzoek wordt geproduceerd, is veel dichter dan die waarmee een menselijke bestuurder te maken zou hebben; in de echte wereld, een typische mist kan een zicht van ongeveer 30 tot 50 meter opleveren. Het essentiële punt is dat het systeem beter presteerde dan het menselijk zicht, terwijl de meeste beeldvormingssystemen veel slechter presteren. Een navigatiesysteem dat zelfs zo goed was als een menselijke bestuurder in het rijden in mist zou een enorme doorbraak zijn.
"Ik besloot de uitdaging aan te gaan om een systeem te ontwikkelen dat door echte mist kan kijken, " zegt Guy Satat, een afgestudeerde student in het MIT Media Lab, die het onderzoek leidde. "We hebben te maken met realistische mist, die dik is, dynamisch, en heterogeen. Het is voortdurend in beweging en aan het veranderen, met stukken dichtere of minder dichte mist. Andere methoden zijn niet ontworpen om met dergelijke realistische scenario's om te gaan."
Satat en zijn collega's beschrijven hun systeem in een paper die ze in mei zullen presenteren op de International Conference on Computational Photography. Satat is eerste auteur op het papier, en hij wordt vergezeld door zijn scriptieadviseur, universitair hoofddocent mediakunsten en wetenschappen Ramesh Raskar, en door Matthew Tancik, die een afgestudeerde student elektrotechniek en informatica was toen het werk klaar was.
De kansen spelen
Zoals veel van de projecten die zijn ondernomen in Raskar's Camera Culture Group, het nieuwe systeem maakt gebruik van een time-of-flight camera, die ultrakorte uitbarstingen van laserlicht in een scène afvuurt en de tijd meet die nodig is om hun reflecties terug te keren.
Op een heldere dag, de terugkeertijd van het licht geeft getrouw de afstanden aan van de objecten die het weerkaatsten. Maar mist zorgt ervoor dat licht "verstrooit, " of op willekeurige manieren rondspringen. Bij mistig weer, het meeste licht dat de sensor van de camera bereikt, wordt gereflecteerd door waterdruppels in de lucht, niet door het soort objecten dat autonome voertuigen moeten vermijden. En zelfs het licht dat door potentiële obstakels wordt gereflecteerd, zal op verschillende tijdstippen aankomen, zowel op de heen- als de terugweg zijn afgebogen door waterdruppels.
Het MIT-systeem omzeilt dit probleem door gebruik te maken van statistieken. De patronen die door mistgereflecteerd licht worden geproduceerd, variëren afhankelijk van de dichtheid van de mist:licht dringt minder diep door in een dikke mist dan in een lichte mist. Maar de MIT-onderzoekers konden aantonen dat, hoe dik de mist ook is, de aankomsttijden van het gereflecteerde licht volgen een statistisch patroon dat bekend staat als een gammaverdeling.
Gammaverdelingen zijn iets complexer dan Gauss-verdelingen, de gemeenschappelijke verdelingen die de bekende belcurve opleveren:ze kunnen asymmetrisch zijn, en ze kunnen een grotere verscheidenheid aan vormen aannemen. Maar net als Gauss-verdelingen, ze worden volledig beschreven door twee variabelen. Het MIT-systeem schat de waarden van die variabelen on-the-fly en gebruikt de resulterende verdeling om mistreflectie uit het lichtsignaal te filteren dat de sensor van de time-of-flight-camera bereikt.
Cruciaal, het systeem berekent een andere gammaverdeling voor elk van de 1, 024 pixels in de sensor. Daarom kan het de variaties in mistdichtheid aan die eerdere systemen verijdelden:het kan omstandigheden aan waarin elke pixel een ander type mist ziet.
Kenmerkende vormen
De camera telt het aantal lichtdeeltjes, of fotonen, die het elke 56 picoseconden bereiken, of biljoensten van een seconde. Het MIT-systeem gebruikt die ruwe tellingen om een histogram te produceren - in wezen een staafdiagram, met de hoogten van de balken die het aantal fotonen voor elk interval aangeven. Vervolgens vindt het de gammaverdeling die het beste past bij de vorm van het staafdiagram en trekt het eenvoudig de bijbehorende fotonentellingen af van de gemeten totalen. Wat overblijft zijn lichte pieken op de afstanden die correleren met fysieke obstakels.
"Het leuke hieraan is dat het vrij eenvoudig is, Satat zegt. "Als je kijkt naar de berekening en de methode, het is verrassend niet ingewikkeld. We hebben ook geen voorkennis nodig over de mist en zijn dichtheid, waardoor het in een breed scala aan mistomstandigheden kan werken."
Satat testte het systeem met een mistkamer van een meter lang. Binnen in de kamer, hij monteerde regelmatig op afstand geplaatste afstandsmarkeringen, die een ruwe meting van het zicht opleverde. Hij plaatste ook een reeks kleine voorwerpen - een houten beeldje, houten blokken, silhouetten van letters - die het systeem kon afbeelden, zelfs als ze met het blote oog niet waarneembaar waren.
Er zijn verschillende manieren om zichtbaarheid te meten, echter:Objecten met verschillende kleuren en texturen zijn op verschillende afstanden zichtbaar door mist. Dus, om de prestaties van het systeem te beoordelen, hij gebruikte een meer rigoureuze metriek genaamd optische diepte, die de hoeveelheid licht beschrijft die de mist binnendringt.
Optische diepte is onafhankelijk van afstand, dus de prestatie van het systeem op mist met een bepaalde optische diepte op een afstand van 1 meter zou een goede voorspeller moeten zijn van zijn prestatie op mist met dezelfde optische diepte op een bereik van 30 meter. In feite, het systeem kan zelfs beter presteren op langere afstanden, omdat de verschillen tussen de aankomsttijden van fotonen groter zullen zijn, wat zou kunnen zorgen voor nauwkeurigere histogrammen.
"Slecht weer is een van de grootste obstakels die nog moeten worden aangepakt voor autonoom rijdende technologie, " zegt Srinivasa Narasimhan, een professor in computerwetenschappen aan de Carnegie Mellon University. "Het innovatieve werk van Guy en Ramesh produceert de beste zichtbaarheidsverbetering die ik heb gezien bij zichtbare of nabij-infrarode golflengten en heeft het potentieel om zeer binnenkort op auto's te worden geïmplementeerd."
Dit verhaal is opnieuw gepubliceerd met dank aan MIT News (web.mit.edu/newsoffice/), een populaire site met nieuws over MIT-onderzoek, innovatie en onderwijs.
Wetenschap © https://nl.scienceaq.com