Wetenschap
Op deze 8 juli 2018, bestand foto, wolken worden weerspiegeld boven het bedrijfslogo op de motorkap van een Tesla-voertuig buiten een showroom in Littleton, Colo. De National Highway Traffic Safety Administration onderzoekt de crash van een te snel rijdende Tesla waarbij twee mensen om het leven kwamen in een buitenwijk van Los Angeles. maakte het bureau dinsdag bekend, 31 december 2019. (AP Foto/David Zalubowski, Bestand)
Drie crashes met Tesla's waarbij drie mensen om het leven kwamen, hebben de controle op het Autopilot-aandrijfsysteem van het bedrijf vergroot, slechts enkele maanden voordat CEO Elon Musk van plan was om volledig zelfrijdende auto's op straat te zetten.
Op zondag, een Tesla Model S sedan verliet een snelweg in Gardena, Californië, met hoge snelheid, reed door rood en raakte een Honda Civic, twee mensen binnen vermoorden, zei de politie.
Op dezelfde dag, een Tesla Model 3 raakte een geparkeerde brandweerwagen op een snelweg in Indiana, het doden van een passagier in de Tesla.
En op 7 december weer een andere Model 3 raakte een politiekruiser op een snelweg in Connecticut, hoewel niemand gewond raakte.
De speciale eenheid voor crashonderzoek van de National Highway Traffic Safety Administration onderzoekt de crash in Californië. Het bureau heeft niet besloten of de speciale-crasheenheid de crash zal beoordelen die zondag plaatsvond in de buurt van Terre Haute, Indiana. In beide gevallen, autoriteiten moeten nog bepalen of Tesla's Autopilot-systeem werd gebruikt.
NHTSA onderzoekt ook de crash in Connecticut, waarin de bestuurder de politie vertelde dat de auto op automatische piloot werkte, een Tesla-systeem dat is ontworpen om een auto op zijn rijstrook en op veilige afstand van andere voertuigen te houden. Autopilot kan ook zelf van rijstrook wisselen.
Tesla heeft herhaaldelijk gezegd dat zijn Autopilot-systeem alleen is ontworpen om bestuurders te helpen, die nog steeds op moeten letten en te allen tijde klaar moeten staan om in te grijpen. Het bedrijf stelt dat Tesla's met Autopilot veiliger zijn dan voertuigen zonder Autopilot, maar waarschuwt dat het systeem niet alle crashes voorkomt.
Toch, experts en voorstanders van veiligheid zeggen dat een reeks Tesla-ongevallen ernstige vragen oproept over de vraag of bestuurders te afhankelijk zijn geworden van de technologie van Tesla en of het bedrijf genoeg doet om ervoor te zorgen dat bestuurders blijven opletten. Sommige critici hebben gezegd dat het de hoogste tijd is voor de NHTSA om te stoppen met onderzoeken en actie te ondernemen. zoals Tesla dwingen om ervoor te zorgen dat bestuurders opletten wanneer het systeem wordt gebruikt.
NHTSA is een onderzoek gestart naar 13 Tesla-crashes die dateren uit ten minste 2016 en waarbij het bureau denkt dat Autopilot in werking was. Het agentschap heeft nog geen regelgeving uitgevaardigd, hoewel het onderzoekt hoe het soortgelijke "geavanceerde rijhulpsystemen" zou moeten evalueren.
"Op een gegeven moment, de vraag wordt:hoeveel bewijs is er nodig om te bepalen dat de manier waarop deze technologie wordt gebruikt onveilig is?" zei Jason Levine, uitvoerend directeur van het non-profitcentrum voor autoveiligheid in Washington. "Op dit moment, hopelijk zullen deze tragedies niet voor niets zijn en zullen ze leiden tot iets meer dan een onderzoek door de NHTSA."
Levine en anderen hebben het bureau opgeroepen om Tesla te verplichten het gebruik van Autopilot te beperken tot voornamelijk vierbaans verdeelde snelwegen zonder kruisend verkeer. Ze willen ook dat Tesla een beter systeem installeert om bestuurders te controleren om ervoor te zorgen dat ze de hele tijd opletten. Tesla's systeem vereist dat bestuurders hun handen op het stuur plaatsen. Maar federale onderzoekers hebben ontdekt dat chauffeurs met dit systeem te lang kunnen uitwijken.
Tesla is van plan dezelfde camera's en radarsensoren te gebruiken, hoewel met een krachtigere computer, in zijn volledig zelfrijdende voertuigen. Critici betwijfelen of die auto's zelf veilig kunnen rijden zonder andere automobilisten in gevaar te brengen.
Twijfels over Tesla's Autopilot-systeem bestaan al lang. In september, de Nationale Raad voor Transportveiligheid, die transportongevallen onderzoekt, heeft een rapport uitgegeven waarin staat dat een ontwerpfout in Autopilot en onoplettendheid van de bestuurder ertoe leidde dat een Tesla Model S in januari 2018 tegen een brandweerwagen reed die langs een snelweg in Los Angeles stond geparkeerd. De raad van bestuur stelde vast dat de bestuurder te afhankelijk was van het systeem en dat het ontwerp van Autopilot ervoor zorgde dat hij te lang niet kon rijden.
Naast de doden op zondagavond, Bij drie dodelijke ongevallen in de VS sinds 2016 - twee in Florida en één in Silicon Valley - waren voertuigen betrokken die Autopilot gebruikten.
David Friedman, vice-president van belangenbehartiging voor consumentenrapporten en een voormalig waarnemend NHTSA-beheerder, zei dat het bureau Autopilot defect had moeten verklaren en een terugroepactie had moeten zoeken na een crash in 2016 in Florida waarbij een bestuurder om het leven kwam. Noch het systeem van Tesla, noch de bestuurder hadden geremd voordat de auto onder een oplegger doorreed die voor de auto was gedraaid.
"We hebben niet meer mensen nodig die gewond raken om te weten dat er een probleem is en dat Tesla en NHTSA er niet in zijn geslaagd het aan te pakken. ' zei Friedman.
Naast NHTSA, staten kunnen autonome voertuigen reguleren, hoewel velen hebben besloten dat ze testen willen aanmoedigen.
Bij de crash van 2016, NHTSA sloot het onderzoek af zonder een terugroepactie te zoeken. Friedman, die toen niet bij de NHTSA was, zei dat het bureau had vastgesteld dat het probleem niet vaak voorkwam. Maar hij zei dat dat argument sindsdien is ontkracht.
Friedman zei dat het te voorzien is dat sommige chauffeurs niet op de weg letten tijdens het gebruik van Autopilot. dus het systeem is defect.
"Het publiek is een verklaring verschuldigd voor het gebrek aan actie, "zei hij. "Gewoon zeggen dat ze het onderzoek voortzetten - die lijn heeft zijn nut en zijn geloofwaardigheid uitgeput."
In een verklaring, NHTSA zei dat het op gegevens vertrouwt om beslissingen te nemen, en als hij vindt dat een voertuig een onredelijk veiligheidsrisico vormt, "het bureau zal niet aarzelen om actie te ondernemen." NHTSA heeft ook gezegd dat het de technologie niet in de weg wil staan gezien het levensreddende potentieel.
Berichten werden donderdag achtergelaten op zoek naar commentaar van Tesla.
Raj Rajkumar, een professor in elektrische en computertechnologie aan de Carnegie Mellon University, zei dat het waarschijnlijk is dat de Tesla tijdens de crash in Californië van zondag op de automatische piloot werkte, die in het verleden in de war is geraakt door rijstrooklijnen. Hij speculeerde dat de rijstrook beter zichtbaar was voor de afrit, dus de auto nam de oprit omdat het eruitzag als een snelwegbaan. Hij suggereerde ook dat de bestuurder mogelijk niet goed had opgelet.
"Geen enkel normaal mens zou niet vertragen in een uitrijstrook, " hij zei.
In april, Musk zei dat hij verwachtte in 2020 te beginnen met het ombouwen van de elektrische auto's van het bedrijf naar volledig zelfrijdende voertuigen om een netwerk van robottaxi's te creëren om te concurreren met Uber en andere taxidiensten.
Destijds, experts zeiden dat de technologie nog niet klaar is en dat de camera- en radarsensoren van Tesla niet goed genoeg waren voor een zelfrijdend systeem. Rajkumar en anderen zeggen dat extra crashes hebben bewezen dat dit waar is.
Veel experts zeggen dat ze niet op de hoogte zijn van dodelijke ongevallen met vergelijkbare rijhulpsystemen van General Motors. Mercedes en andere autofabrikanten. GM houdt bestuurders in de gaten met camera's en schakelt het rijsysteem uit als ze niet op de weg letten.
"Tesla komt niet in de buurt van die norm, " hij zei.
Hij voorspelde meer doden bij Tesla's als de NHTSA geen actie onderneemt.
"Dit is heel jammer, "zei hij. "Gewoon tragisch."
© 2020 The Associated Press. Alle rechten voorbehouden.
Wetenschap © https://nl.scienceaq.com