science >> Wetenschap >  >> Elektronica

Menselijk redeneren naar autonavigatie zonder bestuurder

Om meer mensachtig redeneren naar autonome voertuignavigatie te brengen, MIT-onderzoekers hebben een systeem ontwikkeld waarmee auto's zonder bestuurder een eenvoudige kaart kunnen controleren en visuele gegevens kunnen gebruiken om routes te volgen in nieuwe, complexe omgevingen. Krediet:Chelsea Turner

Met als doel om meer mensachtig redeneren naar autonome voertuigen te brengen, MIT-onderzoekers hebben een systeem gemaakt dat alleen eenvoudige kaarten en visuele gegevens gebruikt om auto's zonder bestuurder in staat te stellen routes te navigeren in nieuwe, complexe omgevingen.

Menselijke chauffeurs zijn uitzonderlijk goed in het navigeren op wegen waar ze nog niet eerder op hebben gereden, met behulp van observatie en eenvoudige hulpmiddelen. We matchen eenvoudig wat we om ons heen zien met wat we zien op onze GPS-apparaten om te bepalen waar we zijn en waar we heen moeten. Zelfrijdende auto's, echter, worstelen met deze fundamentele redenering. In elk nieuw gebied, de auto's moeten eerst alle nieuwe wegen in kaart brengen en analyseren, wat erg tijdrovend is. De systemen zijn ook afhankelijk van complexe kaarten - meestal gegenereerd door 3D-scans - die rekenintensief zijn om on-the-fly te genereren en te verwerken.

In een paper die deze week wordt gepresenteerd op de internationale conferentie over robotica en automatisering, MIT-onderzoekers beschrijven een autonoom besturingssysteem dat de stuurpatronen van menselijke bestuurders "leert" terwijl ze over wegen in een klein gebied navigeren, met alleen gegevens van videocamerafeeds en een eenvoudige GPS-achtige kaart. Vervolgens, het getrainde systeem kan een auto zonder bestuurder besturen langs een geplande route in een gloednieuw gebied, door de menselijke bestuurder te imiteren.

Net als bij menselijke chauffeurs, het systeem detecteert ook eventuele mismatches tussen de kaart en kenmerken van de weg. Dit helpt het systeem te bepalen of zijn positie, sensoren, of mapping zijn onjuist, om de koers van de auto te corrigeren.

Om het systeem in eerste instantie te trainen, een menselijke operator bestuurde een Toyota Prius zonder bestuurder - uitgerust met verschillende camera's en een basis GPS-navigatiesysteem - en verzamelde gegevens van lokale straten in de voorsteden, waaronder verschillende wegstructuren en obstakels. Wanneer autonoom ingezet, het systeem heeft de auto met succes genavigeerd langs een vooraf gepland pad in een ander bosgebied, bestemd voor tests met autonome voertuigen.

"Met ons systeem je hoeft niet op elke weg van tevoren te trainen, " zegt eerste auteur Alexander Amini, een MIT-afgestudeerde student. "Je kunt een nieuwe kaart voor de auto downloaden om door wegen te navigeren die hij nog nooit eerder heeft gezien."

"Ons doel is om autonome navigatie te realiseren die robuust is voor het rijden in nieuwe omgevingen, " voegt co-auteur Daniela Rus toe, directeur van het Computer Science and Artificial Intelligence Laboratory (CSAIL) en de Andrew en Erna Viterbi Professor of Electrical Engineering and Computer Science. "Bijvoorbeeld, als we een autonoom voertuig trainen om te rijden in een stedelijke omgeving zoals de straten van Cambridge, het systeem moet ook in het bos soepel kunnen rijden, zelfs als dat een omgeving is die hij nog nooit eerder heeft gezien."

Naast Rus en Amini op het papier staan ​​Guy Rosman, een onderzoeker aan het Toyota Research Institute, en Sertac Karaman, een universitair hoofddocent luchtvaart en ruimtevaart aan het MIT.

Navigatie van punt naar punt

Traditionele navigatiesystemen verwerken gegevens van sensoren via meerdere modules die zijn aangepast voor taken zoals lokalisatie, in kaart brengen, objectdetectie, bewegingsplanning, en stuurcontrole. Voor jaren, Rus' groep heeft "end-to-end" navigatiesystemen ontwikkeld, die ingevoerde sensorische gegevens verwerken en stuurcommando's uitvoeren, zonder dat er speciale modules nodig zijn.

Tot nu, echter, deze modellen zijn strikt ontworpen om veilig de weg te volgen, zonder een echte bestemming in gedachten. In de nieuwe krant de onderzoekers ontwikkelden hun end-to-end systeem om van doel naar bestemming te rijden, in een voorheen ongeziene omgeving. Om dit te doen, de onderzoekers trainden hun systeem om een ​​volledige kansverdeling te voorspellen over alle mogelijke stuurcommando's op elk willekeurig moment tijdens het rijden.

Het systeem maakt gebruik van een machine learning-model, een convolutioneel neuraal netwerk (CNN), vaak gebruikt voor beeldherkenning. Tijdens de training, het systeem kijkt en leert sturen van een menselijke bestuurder. De CNN correleert stuurwielrotaties met wegkrommingen die het waarneemt via camera's en een ingevoerde kaart. Eventueel, het leert het meest waarschijnlijke stuurcommando voor verschillende rijsituaties, zoals rechte wegen, vierweg- of T-vormige kruispunten, vorken, en draaiboeken.

"Aanvankelijk, op een T-vormige kruising, er zijn veel verschillende richtingen waarin de auto kan draaien, " zegt Rus. "Het model begint met na te denken over al die richtingen, maar omdat het steeds meer gegevens ziet over wat mensen doen, het zal zien dat sommige mensen linksaf slaan en sommigen rechtsaf, maar niemand gaat rechtdoor. Rechtdoor is uitgesloten als mogelijke richting, en het model leert dat, op T-vormige kruispunten, het kan alleen naar links of rechts bewegen."

Wat zegt de kaart?

Bij het testen, de onderzoekers voeren het systeem in met een kaart met een willekeurig gekozen route. Tijdens het rijden, het systeem haalt visuele kenmerken uit de camera, waarmee het wegstructuren kan voorspellen. Bijvoorbeeld, het identificeert een afgelegen stopbord of lijnonderbrekingen aan de kant van de weg als tekenen van een naderend kruispunt. Op elk moment, het gebruikt zijn voorspelde kansverdeling van stuurcommando's om de meest waarschijnlijke te kiezen om zijn route te volgen.

belangrijk, zeggen de onderzoekers, het systeem maakt gebruik van kaarten die gemakkelijk op te slaan en te verwerken zijn. Autonome controlesystemen gebruiken doorgaans LIDAR-scans om enorme, complexe kaarten die ongeveer 4, 000 gigabyte (4 terabytes) aan gegevens om alleen de stad San Francisco op te slaan. Voor elke nieuwe bestemming, de auto moet nieuwe kaarten maken, wat neerkomt op tonnen aan gegevensverwerking. Kaarten gebruikt door het systeem van de onderzoekers, echter, legt de hele wereld vast met slechts 40 gigabyte aan gegevens.

Tijdens autonoom rijden, het systeem stemt ook voortdurend zijn visuele gegevens af op de kaartgegevens en merkt eventuele mismatches op. Hierdoor kan het autonome voertuig beter bepalen waar het zich op de weg bevindt. En het zorgt ervoor dat de auto op het veiligste pad blijft als hij tegenstrijdige invoerinformatie krijgt:als, zeggen, de auto rijdt op een rechte weg zonder bochten, en de GPS geeft aan dat de auto rechtsaf moet, de auto weet dan rechtdoor te blijven rijden of te stoppen.

"In de echte wereld, sensoren falen, " zegt Amini. "We willen ervoor zorgen dat het systeem bestand is tegen verschillende storingen van verschillende sensoren door een systeem te bouwen dat deze luidruchtige inputs kan accepteren en toch correct kan navigeren en lokaliseren op de weg."