Wetenschap
Toen een autonome Uber in Arizona niet afremde, werd een 49-jarige vrouw dodelijk getroffen.
Vorige week, de Amerikaanse National Transportation Safety Board (NTSB) heeft zijn voorlopige rapport uitgebracht over de Uber-zelfrijdende crash waarbij een vrouw in maart om het leven kwam.
De NTSB ontdekte dat de auto seconden voor de crash een object op de weg identificeerde, maar het voertuig stopte niet. De radar- en Lidar-sensoren op de gemodificeerde Volvo XC-90 SUV detecteerden de 49-jarige Elaine Herzberg ongeveer zes seconden voor de crash. Het voertuig classificeerde Herzberg eerst als een object, dan als voertuig, en tenslotte als een fiets terwijl ze met haar fiets over straat liep.
Ongeveer een seconde voor de botsing, het zelfrijdende systeem bepaalde dat een noodstop nodig was om een aanrijding te voorkomen. Maar, Uber had het in de fabriek uitgeruste automatische noodremsysteem van Volvo uitgeschakeld om botsingen met zijn eigen technologie te voorkomen, aldus het rapport.
Vanaf daar werd het erger.
De NTSB ontdekte ook dat de zelfrijdende software van Uber was getraind om niet zelf te remmen in situaties die "onregelmatig voertuiggedrag" met zich meebrachten. Dit werd gedaan om een comfortabele rit te bieden:te veel fout-positieve detecties (bijv. struiken of plastic zakken op de weg) zou resulteren in een groot aantal noodremmen die geen enkele passagier zal tolereren.
Dus, in plaats daarvan, het bedrijf vertrouwde op de back-upchauffeur om op het laatste moment in te grijpen om een ramp te voorkomen. Dat is niet gebeurd.
Opnieuw nadenken over niveau 3 en voorwaardelijke automatisering
De meeste tests voor zelfrijdende voertuigen vereisen tegenwoordig menselijk ingrijpen. Dit is wat wordt aangeduid als niveau-3 of voorwaardelijke automatisering - de fase in de ontwikkeling van autonome voertuigen die volgens mij het gevaarlijkst is, omdat het de overdracht van de voertuigcontrole aan de back-upbestuurder in geval van nood inhoudt.
Weinig bedrijven hebben er al voor gekozen om niveau 3 over te slaan en zich te richten op het veiligere niveau 4 (volledige autonomie).
In feite, Ik zou willen stellen dat Level 3 expliciet verboden moet worden op de openbare weg. Een menselijke stap in de regelkring op het laatste moment is niets minder dan een gegarandeerde ramp.
Omdat beide geautomatiseerde noodremsystemen niet beschikbaar zijn in het Uber-voertuig, het bedrijf vertrouwde op de back-upoperator om onmiddellijk in te grijpen om een crash te voorkomen. Dit is problematisch omdat het overdragen van de controle van auto naar mens veel problemen oplevert, vooral in situaties waarin de back-upoperator is uitgeweken. Op videobeelden was te zien dat de machinist vlak voor de crash naar beneden keek. Ze remde pas na de aanrijding. Herzberg werd gedood.
Niveau 3 geeft chauffeurs ook een vals gevoel van veiligheid. In maart, een Tesla-coureur kwam om het leven bij een crash in Californië toen zijn voertuig op Autopilot draaide. In mei 2016, een Tesla-coureur stierf toen zijn auto, ook op automatische piloot, crashte in een vrachtwagen in Florida. Deze voertuigen zijn ontworpen om door mensen te rijden, ondersteund door zelfrijdende technologieën, niet bestuurd door computers met menselijk toezicht.
Regelgevend ingrijpen – de weg vooruit
Het NTSB-rapport benadrukt niet alleen de tekortkomingen van het testprogramma van Uber, maar ook een falen in het reguleren van tests op open wegen.
Een vorig jaar gepubliceerd rapport toonde aan dat de gereedheid van zelfrijdende software verschilt tussen de verschillende aanbieders. Waymo's zelfrijdende software was 5, 000 keer veiliger dan die van Uber, volgens het rapport. Dit werd gemeten aan de hand van het aantal uittredingen, toen het geautomatiseerde systeem de reservebestuurder dwong om de controle over het voertuig over te nemen. Het tarief van Uber was 1 ontkoppeling per gereden kilometer, terwijl Waymo's 1 ontkoppeling elke 5 was, 128 mijl!
De industrie is zelfregulerend en het is niet bekend hoe zij bepalen of hun technologie veilig is voor gebruik op de openbare weg. De regelgevers hebben evenmin de criteria verstrekt voor het nemen van dergelijke beslissingen.
Hoewel het noodzakelijk is om de prestaties van zelfrijdende software onder reële omstandigheden te testen, de proeven op de openbare weg mogen niet gaan over het testen van de veiligheid van de systemen. Veiligheidstests moeten uitgebreid worden geëvalueerd voordat de voertuigen op de openbare weg worden toegelaten.
Een passende manier van handelen zou zijn dat regelgevers met een reeks gestandaardiseerde tests komen, en bedrijven te vragen hun algoritmen te benchmarken op dezelfde datasets.
De regelgevers moeten een getrapte benadering van certificering volgen. Eerst, het zelfrijdende systeem wordt geëvalueerd in simulatieomgevingen. Dit geeft het vertrouwen dat het systeem veilig werkt. Dit wordt gevolgd door real-world testen in besloten omgevingen (bijvoorbeeld op testbedden). Zodra de voertuigen de benchmarktests doorstaan, de regelgevers kunnen ze toelaten op open wegen maar ook met veiligheidsvoorwaarden.
Dit tragische incident zou een katalysator moeten zijn voor regelgevers om een sterke en robuuste veiligheidscultuur tot stand te brengen om innovaties in zelfrijdende technologieën te begeleiden. Zonder dit, de inzet van autonome voertuigen zou nergens erg snel gaan.
Wetenschap © https://nl.scienceaq.com