science >> Wetenschap >  >> Elektronica

Een surveillancemaatschappij vermijden:hoe betere regels gezichtsherkenningstechnologie kunnen beteugelen

Krediet:JR Korpa / Unsplash

Het menselijk gezicht is bijzonder. Het is tegelijkertijd openbaar en persoonlijk. Onze gezichten onthullen gevoelige informatie over ons:wie we zijn, natuurlijk, maar ook ons ​​geslacht, emoties, gezondheidsstatus en meer.

Wetgevers in Australië, zoals die over de hele wereld, hadden nooit verwacht dat onze gezichtsgegevens op industriële schaal zouden worden verzameld en vervolgens in alles zouden worden gebruikt, van onze smartphones tot CCTV-camera's van de politie. Het zou ons dus niet moeten verbazen dat onze wetten geen gelijke tred hebben gehouden met de buitengewone opkomst van gezichtsherkenningstechnologie.

Maar wat voor wetten hebben we nodig? De technologie kan zowel ten goede als ten kwade worden gebruikt, dus noch het verbieden ervan, noch de huidige free-for-all lijken ideaal.

Het falen van de regelgeving heeft onze gemeenschap echter kwetsbaar gemaakt voor schadelijk gebruik van gezichtsherkenning. Om de juridische leemte op te vullen, stellen we een "modelwet" voor:een schets van wetgeving die regeringen in heel Australië zouden kunnen aannemen of aanpassen om riskant gebruik van gezichtsherkenning te reguleren en veilige toepassingen toe te staan.

De uitdaging van gezichtsherkenningstechnologieën

De use-cases voor gezichtsherkenningstechnologieën lijken alleen beperkt door onze verbeeldingskracht. Velen van ons denken er niets aan om gezichtsherkenning te gebruiken om onze elektronische apparaten te ontgrendelen. Toch is de technologie ook in heel Australië uitgeprobeerd of geïmplementeerd in een breed scala van situaties, waaronder scholen, luchthavens, winkels, clubs en goklocaties, en wetshandhaving.

Aangezien het gebruik van gezichtsherkenning jaarlijks met naar schatting 20% ​​groeit, neemt ook het risico voor mensen toe, vooral in risicovolle situaties zoals politie.

In de VS heeft het vertrouwen op foutgevoelige gezichtsherkenningstechnologie geresulteerd in talloze gevallen van onrecht, vooral bij zwarte mensen. Deze omvatten de onrechtmatige arrestatie en detentie van Robert Williams, en de onrechtmatige uitsluiting van een jong zwart meisje van een rolschaatsbaan in Detroit.

Veel van 's werelds grootste technologiebedrijven, waaronder Meta, Amazon en Microsoft, hebben hun diensten op het gebied van gezichtsherkenning verminderd of stopgezet. Ze hebben bezorgdheid geuit over de veiligheid van de consument en een gebrek aan effectieve regelgeving.

Dit is lovenswaardig, maar het heeft ook geleid tot een soort van 'reguleringsmarktfalen'. Terwijl die bedrijven zich terugtrokken, hebben andere bedrijven met minder scrupules een groter aandeel in de gezichtsherkenningsmarkt veroverd.

Neem het Amerikaanse bedrijf Clearview AI. Het schraapte miljarden gezichtsafbeeldingen van sociale media en andere websites zonder de toestemming van de getroffen personen, en creëerde vervolgens een dienst voor het matchen van gezichten die het verkocht aan de Australische federale politie en andere wetshandhavingsinstanties over de hele wereld.

In 2021 ontdekte de Australische commissaris voor informatie en privacy dat zowel Clearview AI als de AFP de Australische privacywet hadden geschonden, maar handhavingsacties zoals deze zijn zeldzaam.

Australiërs willen echter een betere regulering van gezichtsherkenning. Dit is aangetoond in het rapport van de Australian Human Rights Commission 2021, het CHOICE-onderzoek uit 2022 naar het gebruik van gezichtsherkenningstechnologie door grote retailers en in onderzoek dat wij van het Human Technology Institute hebben laten uitvoeren als onderdeel van onze modelwet.

Opties voor hervorming gezichtsherkenning

Welke opties heeft Australië? De eerste is om niets te doen. Maar dit zou betekenen dat we accepteren dat we niet worden beschermd tegen schadelijk gebruik van gezichtsherkenningstechnologieën, en dat we ons op onze huidige weg naar massasurveillance houden.

Een andere optie zou zijn om gezichtsherkenningstechnologie helemaal te verbieden. Sommige jurisdicties hebben inderdaad moratorium op de technologie ingesteld, maar ze bevatten veel uitzonderingen (voor positief gebruik) en zijn op zijn best een tijdelijke oplossing.

Naar onze mening is de betere hervormingsoptie een wet om gezichtsherkenningstechnologieën te reguleren op basis van hoe riskant ze zijn. Een dergelijke wet zou gezichtsherkenning aanmoedigen met duidelijk algemeen nut, terwijl het tegelijkertijd bescherming biedt tegen schadelijk gebruik van de technologie.

Een op risico's gebaseerde wet voor regulering van gezichtsherkenningstechnologie

Volgens onze modelwet moet iedereen die gezichtsherkenningssystemen in Australië ontwikkelt of implementeert een rigoureuze effectbeoordeling uitvoeren om het mensenrechtenrisico te evalueren.

Naarmate het risiconiveau toeneemt, nemen ook de wettelijke vereisten of beperkingen toe. Ontwikkelaars zouden ook moeten voldoen aan een technische norm voor gezichtsherkenning, in lijn met internationale normen voor AI-prestaties en goed gegevensbeheer.

De modelwet bevat een algemeen verbod op risicovol gebruik van gezichtsherkenningstoepassingen. Een toepassing voor 'gezichtsanalyse' die beweerde de seksuele geaardheid van individuen te beoordelen en vervolgens beslissingen over hen te nemen, zou bijvoorbeeld verboden zijn. (Helaas is dit geen vergezochte hypothese.)

De modelwet voorziet ook in drie uitzonderingen op het verbod op risicovolle gezichtsherkenningstechnologie:

  1. de regelgever zou een aanvraag met een hoog risico kunnen toestaan ​​als hij van mening is dat de aanvraag gerechtvaardigd is op grond van de internationale mensenrechtenwetgeving
  2. er zou een specifiek wettelijk regime zijn voor wetshandhavingsinstanties, inclusief een "face warrant"-regeling die onafhankelijk toezicht zou bieden, net als bij andere dergelijke warrants
  3. toepassingen met een hoog risico kunnen worden gebruikt in academisch onderzoek, met passend toezicht.

Beoordeling door de regelgever en betrokken personen

Elke wet zou moeten worden gehandhaafd door een regelgever met de juiste bevoegdheden en middelen. Wie zou dit moeten zijn?

De meerderheid van de belanghebbenden die we hebben geraadpleegd, waaronder zakelijke gebruikers, technologiebedrijven en vertegenwoordigers van het maatschappelijk middenveld, stelden voor dat het Office of the Australian Information Commissioner (OAIC) ​​zeer geschikt zou zijn om de regelgever van gezichtsregulering te zijn. Voor bepaalde gevoelige gebruikers, zoals het leger en bepaalde veiligheidsdiensten, kan er ook een gespecialiseerd toezichtsregime nodig zijn.

Het moment voor hervorming is nu

Nooit hebben we zoveel groepen en individuen uit het maatschappelijk middenveld, de industrie en de overheid zo betrokken en op één lijn gezien met de noodzaak van hervorming van gezichtsherkenningstechnologie. Dit wordt weerspiegeld in de steun voor de modelwet van zowel de Technology Council of Australia als CHOICE.

Gezien de buitengewone opkomst van gezichtsherkenning en een groeiende consensus onder belanghebbenden, zou de federale procureur-generaal dit moment moeten aangrijpen en de nationale hervormingen moeten leiden. De eerste prioriteit is de invoering van een federale wet, die gemakkelijk gebaseerd zou kunnen zijn op onze modelwet. De procureur-generaal moet ook samenwerken met de staten en territoria om de Australische wetgeving op gezichtsherkenning te harmoniseren.

Deze voorgestelde hervorming is belangrijk op zijn eigen voorwaarden:we kunnen niet toestaan ​​dat gezichtsherkenningstechnologieën effectief ongereguleerd blijven. Het zou ook aantonen hoe Australië de wet kan gebruiken om te beschermen tegen schadelijk gebruik van nieuwe technologie, terwijl het tegelijkertijd innovatie stimuleert voor het algemeen nut.

Meer informatie over de modelwet is te vinden in ons rapport "Gezichtsherkenningstechnologie:Op weg naar een modelwet". + Verder verkennen

Nieuw rapport biedt blauwdruk voor regulering van gezichtsherkenningstechnologie

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.