science >> Wetenschap >  >> Elektronica

Hoe te onderzoeken wanneer een robot een ongeluk veroorzaakt, en waarom het belangrijk is dat we dat doen

Krediet:Andrey_Popov/Shutterstock

Robots komen steeds vaker voor in ons dagelijks leven. Ze kunnen ongelooflijk nuttig zijn (bionische ledematen, robotmaaiers of robots die maaltijden bezorgen aan mensen in quarantaine), of gewoon vermakelijk (robothonden, dansspeelgoed en acrobatische drones). Verbeelding is misschien wel de enige limiet aan wat robots in de toekomst kunnen doen.

Wat gebeurt er echter als robots niet doen wat we willen dat ze doen - of het doen op een manier die schade veroorzaakt? Wat gebeurt er bijvoorbeeld als een bionische arm betrokken is bij een verkeersongeval?

Robotongevallen worden om twee redenen een punt van zorg. Ten eerste zal de toename van het aantal robots natuurlijk leiden tot een toename van het aantal ongevallen waarbij ze betrokken zijn. Ten tweede worden we beter in het bouwen van complexere robots. Wanneer een robot complexer is, is het moeilijker te begrijpen waarom er iets mis is gegaan.

De meeste robots draaien op verschillende vormen van kunstmatige intelligentie (AI). AI's zijn in staat om menselijke beslissingen te nemen (hoewel ze objectief goede of slechte beslissingen kunnen nemen). Deze beslissingen kunnen van alles zijn, van het identificeren van een object tot het interpreteren van spraak.

AI's zijn getraind om deze beslissingen voor de robot te nemen op basis van informatie uit enorme datasets. De AI's worden vervolgens getest op nauwkeurigheid (hoe goed ze doen wat we willen) voordat ze de taak krijgen.

AI's kunnen op verschillende manieren worden ontworpen. Denk bijvoorbeeld aan de robotstofzuiger. Het zou zo kunnen worden ontworpen dat wanneer het van een oppervlak stoot, het in een willekeurige richting wordt omgeleid. Omgekeerd zou het kunnen worden ontworpen om zijn omgeving in kaart te brengen om obstakels te vinden, alle oppervlakten te bestrijken en terug te keren naar zijn oplaadbasis. Terwijl het eerste vacuüm input van zijn sensoren opneemt, volgt het tweede die input in een intern kaartsysteem. In beide gevallen neemt de AI informatie op en neemt er een beslissing over.

Hoe complexere dingen een robot kan, hoe meer soorten informatie hij moet interpreteren. Het kan ook het beoordelen van meerdere bronnen van één type gegevens zijn, zoals, in het geval van auditieve gegevens, een live stem, een radio en de wind.

Naarmate robots complexer worden en in staat zijn om op een verscheidenheid aan informatie te reageren, wordt het nog belangrijker om te bepalen op welke informatie de robot heeft gereageerd, vooral wanneer er schade is aangericht.

Ongelukken gebeuren

Zoals met elk product, kunnen en gaan er dingen mis met robots. Soms is dit een intern probleem, zoals dat de robot een spraakopdracht niet herkent. Soms is het extern:de sensor van de robot is beschadigd. En soms kan het beide zijn, zoals dat de robot niet is ontworpen om op tapijten te werken en 'struikelen'. Bij onderzoek naar robotongevallen moet naar alle mogelijke oorzaken worden gekeken.

Hoewel het vervelend kan zijn als de robot beschadigd raakt wanneer er iets misgaat, maken we ons veel meer zorgen wanneer de robot iemand schade toebrengt of er niet in slaagt de schade te beperken. Als een bionische arm er bijvoorbeeld niet in slaagt een warme drank vast te pakken, wordt deze op de eigenaar geslagen; of als een zorgrobot geen noodoproep registreert wanneer de zwakke gebruiker is gevallen.

Waarom is onderzoek naar robotongevallen anders dan dat van menselijke ongevallen? Robots hebben met name geen motieven. We willen weten waarom een ​​robot de beslissing nam op basis van de specifieke input die hij had.

Was het in het voorbeeld van de bionische arm een ​​miscommunicatie tussen de gebruiker en de hand? Heeft de robot meerdere signalen door elkaar gehaald? Onverwacht vergrendelen? Zou de robot, in het voorbeeld van de persoon die omvalt, de roep om hulp niet kunnen "horen" over een luide ventilator? Of had het problemen met het interpreteren van de spraak van de gebruiker?

De zwarte doos

Onderzoek naar robotongevallen heeft een belangrijk voordeel ten opzichte van onderzoek naar menselijke ongevallen:er is potentieel voor een ingebouwde getuige. Commerciële vliegtuigen hebben een soortgelijke getuige:de zwarte doos, gebouwd om vliegtuigcrashes te weerstaan ​​en informatie te geven over waarom de crash plaatsvond. Deze informatie is ongelooflijk waardevol, niet alleen om incidenten te begrijpen, maar ook om te voorkomen dat ze opnieuw gebeuren.

Als onderdeel van RoboTIPS, een project dat zich richt op verantwoorde innovatie voor sociale robots (robots die interactie hebben met mensen), hebben we de zogenaamde ethische black box gecreëerd:een intern verslag van de input van de robot en de bijbehorende acties. De ethische zwarte doos is ontworpen voor elk type robot dat het bewoont en is gebouwd om alle informatie vast te leggen waarop de robot handelt. Dit kan stem-, visuele of zelfs hersenactiviteit zijn.

We testen de ethische zwarte doos op verschillende robots in zowel laboratorium- als gesimuleerde ongevalsomstandigheden. Het doel is dat de ethische black box standaard wordt in robots van alle merken en toepassingen.

Hoewel de gegevens die door de ethische zwarte doos worden geregistreerd, nog moeten worden geïnterpreteerd in het geval van een ongeval, is het hebben van deze gegevens in eerste instantie cruciaal om ons in staat te stellen het onderzoek te doen.

Het onderzoeksproces biedt de kans om ervoor te zorgen dat dezelfde fouten niet twee keer voorkomen. De ethische zwarte doos is niet alleen een manier om betere robots te bouwen, maar ook om verantwoord te innoveren in een spannend en dynamisch veld.