Wetenschap
Op deze 23 maart 2018, bestandsfoto geleverd door KTVU, hulpdiensten werken aan de plek waar een elektrische SUV van Tesla tegen een slagboom op de U.S. Highway 101 in Mountain View crashte, Californië De Apple-ingenieur die stierf toen zijn Tesla Model X tegen de betonnen barrière crashte, klaagde voor zijn dood dat het Autopilot-systeem van de SUV niet goed zou werken in het gebied waar de crash plaatsvond. De klachten werden gedetailleerd beschreven in een schat aan documenten die dinsdag werden vrijgegeven, 11 februari 2020, door de Amerikaanse National Transportation Safety Board, die de maart onderzoekt, Crash in 2018 waarbij ingenieur Walter Huang omkwam. (KTVU-TV via AP, Bestand)
Het gedeeltelijk geautomatiseerde rijsysteem van Tesla stuurde een elektrische SUV tegen een betonnen barrière op een snelweg in Silicon Valley omdat het onder omstandigheden werkte die het niet aankon en omdat de bestuurder waarschijnlijk werd afgeleid door een spel op zijn smartphone te spelen. de National Transportation Safety Board heeft gevonden.
Het bestuur heeft dinsdag besloten in de fatale crash, en gaf negen nieuwe aanbevelingen om gedeeltelijk geautomatiseerde voertuigongevallen in de toekomst te voorkomen. Een van de aanbevelingen is voor technologiebedrijven om smartphones en andere elektronische apparaten zo te ontwerpen dat ze niet werken als ze binnen het bereik van een bestuurder zijn, tenzij het een noodgeval is.
Voorzitter Robert Sumwalt zei dat het probleem van bestuurders die worden afgeleid door smartphones zich zal blijven verspreiden als er niets wordt gedaan.
"Als we er niet bovenop komen, het wordt een coronavirus, " zei hij toen hij opriep tot overheidsvoorschriften en bedrijfsbeleid die het gebruik van smartphones door bestuurders verbieden.
Een groot deel van de frustratie van de raad was gericht tegen de National Highway Traffic Safety Administration en Tesla, die geen gevolg hebben gegeven aan de aanbevelingen die de NTSB twee jaar geleden heeft aangenomen. De NTSB onderzoekt crashes, maar heeft alleen de bevoegdheid om aanbevelingen te doen. NHTSA kan het advies afdwingen, en fabrikanten kunnen er ook naar handelen.
Maar Sumwalt zei dat als ze dat niet doen, "dan verdoen we onze tijd. De veiligheid wordt er niet beter op. We rekenen op hen om hun werk te doen."
Voor Tesla, de raad herhaalde eerdere aanbevelingen dat het beveiligingen installeerde om te voorkomen dat het Autopilot-aandrijfsysteem werkt in omstandigheden waarvoor het niet was ontworpen om te navigeren. Het bestuur wil ook dat Tesla een effectiever systeem ontwerpt om ervoor te zorgen dat de bestuurder altijd oplet.
Als Tesla geen veiligheidsmaatregelen voor stuurprogramma's toevoegt, misbruik van Autopilot wordt verwacht "en het risico op toekomstige crashes zal blijven, ', schrijft het bestuur in een van zijn bevindingen.
De hoorzitting van dinsdag concentreerde zich op de crash van een Tesla Model X SUV in maart 2018. waarin Autopilot werd ingeschakeld toen het voertuig zwenkte en tegen een betonnen barrière botste die de snelweg en de afrit in Mountain View scheidde, Californië, het doden van Apple-ingenieur Walter Huang.
Vlak voor de crash, de Tesla stuurde naar links een verhard gebied in tussen de rijbanen en een afrit, aldus de NTSB. Het versnelde tot 71 mph en stortte neer in het einde van de betonnen barrière. Het voorwaartse aanrijdingsvermijdingssysteem van de auto waarschuwde Huang niet, en de automatische noodremming is niet geactiveerd, aldus de NTSB.
Ook, Huang remde niet, en er werd geen stuurbeweging gedetecteerd om de crash te vermijden, aldus de directie.
NTSB-medewerkers zeiden dat ze niet precies konden vaststellen waarom de auto de slagboom in stuurde. maar het was waarschijnlijk een combinatie van vervaagde rijstrooklijnen, felle zonneschijn die de camera's beïnvloedde, en een dichterbij dan normaal voertuig in de rijstrook voor de Tesla.
Het bestuur ontdekte ook dat Huang waarschijnlijk zou hebben geleefd als een kussen aan het einde van de barrière was gerepareerd door Californische transportfunctionarissen. Dat kussen was 11 dagen voordat Huang omkwam beschadigd bij een crash.
Aanbevelingen aan NHTSA omvatten uitgebreide tests om ervoor te zorgen dat gedeeltelijk geautomatiseerde systemen kunnen voorkomen dat ze veelvoorkomende obstakels zoals een barrière tegenkomen. Het bestuur vraagt de NHTSA ook om Autopilot te evalueren om te bepalen waar het veilig kan werken en om normen te ontwikkelen en af te dwingen voor het monitoren van bestuurders, zodat ze opletten tijdens het gebruik van de systemen.
NHTSA heeft de NTSB verteld dat het onderzoeken heeft geopend naar 14 Tesla-crashes en dat het de handhaving van veiligheidsgebreken zou gebruiken om indien nodig actie te ondernemen.
Het bureau heeft een verklaring uitgegeven waarin staat dat het het rapport van de NTSB zal beoordelen en dat voor alle commercieel beschikbare voertuigen menselijke chauffeurs te allen tijde de controle moeten behouden.
"Ongevallen door afleiding zijn een grote zorg, inclusief die met geavanceerde rijhulpfuncties, " aldus de verklaring.
Sumwalt zei aan het begin van de hoorzitting van dinsdag dat systemen zoals Autopilot zichzelf niet kunnen besturen, toch blijven chauffeurs ze gebruiken zonder er op te letten.
"Dit betekent dat bij het rijden in de zogenaamde 'zelfrijdende' modus, je kunt geen boek lezen, je kunt geen film of tv-programma kijken, je kunt niet sms'en en je kunt geen videogames spelen, " hij zei.
Onder vragen van bestuursleden, Robert Molloy, directeur verkeersveiligheid van de NTSB, zei dat de NHTSA een hands-off benadering kiest voor het reguleren van nieuwe geautomatiseerde rijsystemen zoals Autopilot. Molloy noemde de aanpak "misplaatst, " en zei dat niets meer teleurstellend is dan het zien van aanbevelingen die door Tesla en NHTSA worden genegeerd.
"Ze moeten meer doen, ', zei hij over het federale verkeersveiligheidsagentschap.
Autopilot is ontworpen om een voertuig op zijn rijstrook te houden en een veilige afstand te bewaren tot voertuigen ervoor. Het kan ook van rijstrook wisselen met goedkeuring van de bestuurder. Tesla zegt dat Autopilot bedoeld is om te worden gebruikt voor rijhulp en dat chauffeurs te allen tijde gereed moeten zijn om in te grijpen.
Sumwalt zei dat het bestuur in 2017 zes autofabrikanten aanbevelingen had gedaan om het probleem te stoppen en alleen Tesla heeft niet gereageerd.
Tesla's kunnen voelen dat een bestuurder kracht op het stuur uitoefent, en als dat niet gebeurt, het zal visuele en audiowaarschuwingen geven. Maar het controleren van het stuurwielkoppel, "is een slechte surrogaatmaatregel" om de bestuurder te controleren, Ensar Becic, vertelde de NTSB-expert op het gebied van menselijke prestaties en automatisering van snelwegveiligheid aan het bestuur.
Er werden dinsdag berichten achtergelaten met het verzoek om commentaar van Tesla.
Sumwalt zei dat de NTSB meer dan negen jaar geleden had opgeroepen tot technologie om afleidende functies van smartphones uit te schakelen terwijl de gebruiker aan het rijden was. maar er is geen actie ondernomen.
Don Karol, de NTSB-projectmanager verkeersveiligheid, vertelde de raad van bestuur dat het personeel aanbeveelt dat mobiele telefoonbedrijven telefoons programmeren om automatisch afleidende functies zoals games en telefoontjes te blokkeren terwijl iemand aan het rijden is. Het personeel beveelt bedrijven ook aan beleid vast te stellen om het gebruik van door het bedrijf uitgegeven mobiele telefoons tijdens het rijden te voorkomen.
Tesla heeft gezegd dat Autopilot aanvankelijk in "bèta, " wat betekent dat het werd getest en verbeterd toen er bugs werden geïdentificeerd, Karol vertelde het bestuur.
Dat leverde een reactie op van vice-voorzitter Bruce Landsburg, die zei dat als het systeem bugs heeft gekend, "het is waarschijnlijk redelijk te voorzien dat iemand er een probleem mee zal hebben. En dan komen ze (Tesla) terug en zeggen 'oh, we hebben je gewaarschuwd.'"
© 2020 The Associated Press. Alle rechten voorbehouden. Dit materiaal mag niet worden gepubliceerd, uitzending, herschreven of gedistribueerd zonder toestemming.
Wetenschap © https://nl.scienceaq.com