science >> Wetenschap >  >> Elektronica

Luchtvaartmaatschappijen nemen geen risico met onze veiligheid - en kunstmatige intelligentie ook niet

Krediet:Shutterstock

Je zou denken dat vliegen in een vliegtuig gevaarlijker zou zijn dan autorijden. In werkelijkheid is het veel veiliger, deels omdat de luchtvaartindustrie sterk gereguleerd is.

Luchtvaartmaatschappijen moeten zich houden aan strikte normen voor veiligheid, testen, opleiding, beleid en procedures, controle en toezicht. En als er iets misgaat, we onderzoeken en proberen het probleem op te lossen om de veiligheid in de toekomst te verbeteren.

Het zijn niet alleen luchtvaartmaatschappijen, of. Andere industrieën waar het heel erg mis kan gaan, zoals geneesmiddelen en medische hulpmiddelen, zijn ook sterk gereguleerd.

Kunstmatige intelligentie is een relatief nieuwe industrie, maar het groeit snel en heeft een groot vermogen om schade aan te richten. Zoals luchtvaart en farmaceutica, het moet gereguleerd worden.

AI kan grote schade aanrichten

Een breed scala aan technologieën en toepassingen die onder de noemer 'kunstmatige intelligentie' passen, beginnen een belangrijke rol te spelen in ons leven en onze sociale instellingen. Maar ze kunnen worden gebruikt op manieren die schadelijk zijn, die we al beginnen te zien.

In de "robodebt"-affaire, bijvoorbeeld, de Australische overheidsinstantie Centrelink gebruikte data-matching en geautomatiseerde besluitvorming om (vaak onjuiste) schuldbekentenissen uit te geven aan uitkeringsgerechtigden. Bovendien, de bewijslast werd omgekeerd:individuen moesten bewijzen dat ze de opgeëiste schuld niet verschuldigd waren.

De regering van New South Wales is ook begonnen met het gebruik van AI om bestuurders met mobiele telefoons te spotten. Dit omvat uitgebreid openbaar toezicht via detectiecamera's voor mobiele telefoons die AI gebruiken om automatisch een rechthoekig object in de handen van de bestuurder te detecteren en het als een telefoon te classificeren.

Gezichtsherkenning is een andere AI-toepassing die over de hele wereld intensief wordt onderzocht. Dit komt door het potentieel om de mensenrechten te ondermijnen:het kan worden gebruikt voor wijdverbreide surveillance en onderdrukking van publiek protest, en geprogrammeerde vooroordelen kunnen leiden tot onnauwkeurigheid en rassendiscriminatie. Sommigen hebben zelfs opgeroepen tot een moratorium of een regelrecht verbod omdat het zo gevaarlijk is.

In meerdere landen, inclusief Australië, AI wordt gebruikt om te voorspellen hoe groot de kans is dat een persoon een misdaad begaat. Het is aangetoond dat dergelijke voorspellende methoden de inheemse jeugd onevenredig beïnvloeden en leiden tot onderdrukkende politiepraktijken.

Ook AI die machinisten assisteert komt in gebruik, en in de toekomst kunnen we zelfrijdende auto's en andere autonome voertuigen op onze wegen verwachten. Levens zullen afhangen van deze software.

De Europese aanpak

Als we eenmaal hebben besloten dat AI gereguleerd moet worden, er is nog steeds de vraag hoe het moet. Autoriteiten in de Europese Unie hebben onlangs een reeks voorstellen gedaan om AI te reguleren.

De eerste stap, ze beweren, is het beoordelen van de risico's die AI in verschillende sectoren met zich meebrengt, zoals transport, gezondheidszorg, en overheidstoepassingen zoals migratie, strafrecht en sociale zekerheid. Ze kijken ook naar AI-toepassingen die een risico op overlijden of letsel opleveren, of impact hebben op mensenrechten zoals het recht op privacy, gelijkwaardigheid, vrijheid en veiligheid, vrijheid van beweging en vergadering, sociale zekerheid en levensstandaard, en het vermoeden van onschuld.

Hoe groter het risico dat een AI-toepassing met zich meebracht, hoe meer regelgeving het zou krijgen. De regelgeving zou alles omvatten, van de gegevens die worden gebruikt om de AI te trainen en hoe gegevens worden bijgehouden, hoe transparant de makers en beheerders van het systeem moeten zijn, testen op robuustheid en nauwkeurigheid, en vereisten voor menselijk toezicht. Dit omvat certificering en garanties dat het gebruik van KI-systemen veilig is, en leidt niet tot discriminerende of gevaarlijke resultaten.

Hoewel de aanpak van de EU sterke punten heeft, zelfs schijnbaar "laag risico" AI-toepassingen kunnen echt kwaad doen. Bijvoorbeeld, aanbevelingsalgoritmen in zoekmachines zijn ook discriminerend. Het EU-voorstel is ook bekritiseerd omdat het de gezichtsherkenningstechnologie wil reguleren in plaats van het volledig te verbieden.

De EU is wereldwijd toonaangevend op het gebied van gegevensbescherming. Als hetzelfde gebeurt met AI, deze voorstellen zullen waarschijnlijk als model dienen voor andere landen en gelden voor iedereen die zaken doet met de EU of zelfs voor EU-burgers.

Wat gebeurt er in Australië?

In Australië zijn er enkele toepasselijke wet- en regelgeving, maar er zijn talloze hiaten, en ze worden niet altijd nageleefd. De situatie wordt bemoeilijkt door het gebrek aan mensenrechtenbescherming op federaal niveau.

One prominent attempt at drawing up some rules for AI came last year from Data61, the data and digital arm of CSIRO. They developed an AI ethics framework built around eight ethical principles for AI.

These ethical principles aren't entirely irrelevant (number two is "do no harm, " for example), but they are unenforceable and therefore largely meaningless. Ethics frameworks like this one for AI have been criticized as "ethics washing", and a ploy for industry to avoid hard law and regulation.

Another attempt is the Human Rights and Technology project of the Australian Human Rights Commission. It aims to protect and promote human rights in the face of new technology.

We are likely to see some changes following the Australian Competition and Consumer Commission's recent inquiry into digital platforms. And a long overdue review of the Privacy Act 1988 (Cth) is slated for later this year.

These initiatives will hopefully strengthen Australian protections in the digital age, but there is still much work to be done. Stronger human rights protections would be an important step in this direction, to provide a foundation for regulation.

Before AI is adopted even more widely, we need to understand its impacts and put protections in place. To realize the potential benefits of AI, we must ensure that it is governed appropriately. Anders, we risk paying a heavy price as individuals and as a society.

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.