Sinds midden februari hebben leden van het Congres meer dan 119.000 telefoontjes ontvangen waarin werd geëist dat ze strengere wapenbeheersingswetten zouden goedkeuren. Maar dit zijn niet de typische oproepen van kiesdistricten die hun zorgen uiten.
Door het gebruik van kunstmatige intelligentie lijken deze oproepen vanuit het graf te worden gedaan – door kinderen die zijn omgekomen als direct gevolg van wapengeweld.
"In 2018, toen ik 15 jaar oud was, werd ik gedood door een onzeker wapen in het huis van mijn vriend", luidt een bericht in de stem van de in Connecticut geboren Ethan Song. "Mijn ouders hebben mijn stem nagebootst met behulp van AI, zodat ik je eindelijk kan vragen iets te doen om kinderen te beschermen."
Deze berichten worden verzonden via een nieuwe website genaamd The Shotline. Het platform is ontstaan uit een samenwerking tussen Change the Ref en March For Our Lives, twee organisaties die zijn opgericht als reactie op de schietpartij op een school op de Marjory Stoneman Douglas High School in Parkland, Florida, in 2018.
De groepen werken voor het project samen met ElevenLabs, een AI-bedrijf dat synthetische stemmen maakt met behulp van opgenomen spraak. Hun doel is om het Congres te overspoelen met deze berichten, zodat de leden kwesties rond wapenbeheersing serieuzer gaan nemen. Met een paar klikken kunnen gebruikers van de site deze gesproken berichten naar hun vertegenwoordigers en senatoren sturen.
Rupal Patel, een professor uit het Noordoosten die haar hele carrière heeft onderzocht hoe technologie kan worden gebruikt om mensen hun stem terug te geven, is van mening dat dit een goed gebruik van de technologie is.
"Het maakt het echt", zegt Patel. "Het gaat niet per se om de persoon. Het gaat om het verhaal, en door er een stem aan toe te voegen kunnen we zien hoe ze klonken, wat hun dromen waren. We associëren dat met een stem, die nabijheid."
Maar er is een andere vraag gerezen:is het juist om de stemmen van de doden na te bootsen, ook al is het voor een goed doel?
Patel zegt dat er niet veel reden tot bezorgdheid is, aangezien de stemmen van kinderen door hun ouders worden gecreëerd.
"Het draait allemaal om toestemming", zegt ze. “Wat het ethisch en toelaatbaar maakt, is dat hiermee is ingestemd door de ouders van het kind. Zij gebruiken een kunstmatige stem als een manier om een boodschap over te brengen. Ze hebben het recht om dat te doen, omdat dat kind nog niet volwassen is. . De ouders zijn nog steeds de wettelijke voogden. Elke andere persoon die het gebruikt voor een slechte boodschap heeft geen toestemming van het individu of de voogd.'
Dat gezegd hebbende, zijn er momenteel geen wetten die mensen beschermen tegen het nabootsen van hun stem met behulp van AI, merkt ze op.
"Ik denk niet dat het een zwart-witte lijn is", zegt Patel. "We moeten echt over deze dingen nadenken in een veel genuanceerder wereld. Als ze het gebruiken om fraude te plegen, is dat één ding. Als ze het op een creatieve manier gebruiken om een boodschap over te brengen, is het iets anders."
Ze vergeleek de technologie met Photoshop, dat mensen voortdurend gebruiken om afbeeldingen te wijzigen.
"Dit is een continuüm van technologie en we moeten het zo behandelen", zegt ze. "Hoe gebruiken we het en beoordelen we het van geval tot geval? Dat klinkt voor sommige mensen misschien niet als een bevredigend antwoord, maar we kunnen het niet zomaar wegvegen als onethisch."
James Alan Fox, hoogleraar criminologie, recht en openbaar beleid in het Noordoosten, zegt dat hij het sentiment achter het project begrijpt en de pijn en woede herkent die ouders voelen over het verlies van hun kind, maar hij denkt niet dat het project bijzonder effectief zal zijn.
‘Of het nu gaat om de ouders van Sandy Hook Promise, Parkland of andere gevallen, ik begrijp hun pogingen om het Congres en de mensen in Washington ervan te overtuigen preventieve maatregelen door te voeren die voorkomen dat andere ouders in hun schoenen gaan staan, en ouders moeten voor hun zonen en dochters spreken. , en dat is ook zo", zegt hij.
"Maar een vermoord kind voor zichzelf laten spreken met een synthetische stem, ik denk niet dat dat zal helpen", voegt hij eraan toe. "In feite, en misschien ligt dit aan mij, maar toen ik naar de audio luisterde, concentreerde ik me meer op de kwaliteit van de stem, meer dan op de kwaliteit van de boodschap. Het is gekunsteld en het doet afbreuk aan de boodschap."
Met de opkomst van deepfakes is het volgens Fox belangrijk dat we voorzichtig zijn in de manier waarop we deze technologie gebruiken.
"Ik vind het prima dat AI bijvoorbeeld een nieuw Beatles-nummer maakt, maar dat is voor amusementsdoeleinden", zegt hij. "Ik denk dat ik daar de grens trek."
Hij zegt dat het meer impact zou hebben als de ouders van deze slachtoffers zouden blijven pleiten voor het gebruik van hun eigen stem. Hij wijst op enkele stappen die ouders hebben gezet, waaronder het aandringen op de goedkeuring van het eerste wetsvoorstel over wapenbeheersing in het Congres in decennia in 2022.
"Wat de ouders kunnen zeggen is zeer krachtig en zou een grotere impact hebben dan een door AI ontworpen stem uit het graf", zegt hij.