science >> Wetenschap >  >> Elektronica

Deadbots kunnen voor u spreken na uw overlijden. Is dat ethisch?

Krediet:Pixabay/CC0 publiek domein

Systemen voor machinaal leren banen zich steeds meer een weg door ons dagelijks leven en dagen onze morele en sociale waarden en de regels die daarop van toepassing zijn uit. Tegenwoordig bedreigen virtuele assistenten de privacy van het huis; nieuwsaanbevelingen geven vorm aan de manier waarop we de wereld begrijpen; risicovoorspellingssystemen geven maatschappelijk werkers tips over welke kinderen ze moeten beschermen tegen misbruik; terwijl gegevensgestuurde wervingstools ook uw kansen op het vinden van een baan beoordelen. De ethiek van machine learning blijft voor velen echter vaag.

Toen ik op zoek was naar artikelen over dit onderwerp voor de jonge ingenieurs die de cursus Ethiek en Informatie- en Communicatietechnologie volgden aan de UCLouvain, België, werd ik vooral getroffen door het geval van Joshua Barbeau, een 33-jarige man die een website genaamd Project December gebruikte om maak een gespreksrobot - een chatbot - die een gesprek met zijn overleden verloofde Jessica zou simuleren.

Conversatierobots die dode mensen nabootsen

Dit type chatbot, bekend als een deadbot, stelde Barbeau in staat om sms-berichten uit te wisselen met een kunstmatige 'Jessica'. Ondanks de ethisch controversiële aard van de zaak, vond ik zelden materiaal dat verder ging dan het louter feitelijke aspect en analyseerde ik de zaak door een expliciete normatieve lens:waarom zou het goed of fout zijn, ethisch wenselijk of verwerpelijk, om een ​​deadbot te ontwikkelen?

Laten we, voordat we met deze vragen worstelen, de zaken in de juiste context plaatsen:Project December is gemaakt door de game-ontwikkelaar Jason Rohrer om mensen in staat te stellen chatbots aan te passen met de persoonlijkheid waarmee ze wilden communiceren, op voorwaarde dat ze ervoor betaalden. Het project is gebouwd op basis van een API van GPT-3, een tekstgenererend taalmodel van het onderzoeksbureau voor kunstmatige intelligentie OpenAI. De zaak van Barbeau zorgde voor een breuk tussen Rohrer en OpenAI omdat de richtlijnen van het bedrijf expliciet verbieden dat GPT-3 wordt gebruikt voor seksuele, amoureuze, zelfbeschadiging of pesterijen.

Rohrer noemde de positie van OpenAI hypermoralistisch en beweerde dat mensen zoals Barbeau 'volwassenen instemden', en sloot de GPT-3-versie van Project December af.

Hoewel we allemaal intuïtief kunnen aanvoelen of het goed of fout is om een ​​machine learning-deadbot te ontwikkelen, is het nauwelijks een gemakkelijke taak om de implicaties ervan uit te leggen. Daarom is het belangrijk om de ethische vragen die de casus oproept, stap voor stap aan te pakken.

Is Barbeau's toestemming voldoende om Jessica's deadbot te ontwikkelen?

Aangezien Jessica een echte (zij het dode) persoon was, lijkt Barbeau instemmen met de oprichting van een dode bot die haar nabootst onvoldoende. Zelfs als ze sterven, zijn mensen niet louter dingen waarmee anderen kunnen doen wat ze willen. Dit is de reden waarom onze samenlevingen het verkeerd vinden om de nagedachtenis van de doden te ontheiligen of respectloos te zijn. Met andere woorden, we hebben bepaalde morele verplichtingen met betrekking tot de doden, voor zover de dood niet noodzakelijkerwijs impliceert dat mensen op een moreel relevante manier ophouden te bestaan.

Evenzo is het debat open of we de grondrechten van de doden (bijvoorbeeld privacy en persoonlijke gegevens) moeten beschermen. Het ontwikkelen van een deadbot die iemands persoonlijkheid repliceert, vereist grote hoeveelheden persoonlijke informatie, zoals sociale netwerkgegevens (zie wat Microsoft of Eternime voorstellen) waarvan is bewezen dat ze zeer gevoelige eigenschappen onthullen.

Als we het erover eens zijn dat het onethisch is om de gegevens van mensen zonder hun toestemming te gebruiken terwijl ze nog leven, waarom zou het dan ethisch zijn om dit na hun dood te doen? In die zin lijkt het redelijk om bij het ontwikkelen van een deadbot de toestemming te vragen van degene wiens persoonlijkheid wordt gespiegeld, in dit geval Jessica.

Als de geïmiteerde persoon groen licht geeft

De tweede vraag is dus:zou Jessica's toestemming voldoende zijn om de creatie van haar deadbot als ethisch te beschouwen? Wat als het vernederend was voor haar geheugen?

De grenzen van toestemming zijn inderdaad een controversieel onderwerp. Neem als paradigmatisch voorbeeld de "Rotenburgse kannibaal", die tot levenslange gevangenisstraf werd veroordeeld ondanks het feit dat zijn slachtoffer ermee had ingestemd om te worden opgegeten. In dit verband is betoogd dat het onethisch is om in te stemmen met dingen die schadelijk kunnen zijn voor onszelf, hetzij fysiek (om de eigen vitale organen te verkopen) of abstract (om de eigen rechten te vervreemden), zolang een goede samenleving moet al haar leden aanmoedigen om beter en vrijer te leven (niet noodzakelijk in paternalistische zin, op de voorwaarden die door iemand anders zijn opgelegd, maar op een democratische manier, op de voorwaarden van het volk).

In welke specifieke termen iets schadelijk kan zijn voor de doden, is een bijzonder complexe kwestie die ik niet volledig zal analyseren. Het is echter vermeldenswaard dat zelfs als de doden niet op dezelfde manier kunnen worden geschaad of beledigd als de levenden, dit niet betekent dat ze onkwetsbaar zijn voor slechte daden, noch dat deze ethisch zijn. De doden kunnen schade oplopen aan hun eer, reputatie of waardigheid (bijvoorbeeld postume lastercampagnes), en gebrek aan respect voor de doden schaadt ook hun naasten. Bovendien leidt ons slecht gedrag tegenover de doden ons naar een samenleving die onrechtvaardiger is en minder respectvol is voor de waardigheid van mensen in het algemeen.

Ten slotte bestaat, gezien de maakbaarheid en onvoorspelbaarheid van machine-learningsystemen, het risico dat de toestemming van de persoon die wordt nagebootst (tijdens zijn leven) niet veel meer betekent dan een blanco vinkje op zijn potentiële paden.

Dit alles in aanmerking nemend, lijkt het redelijk om te concluderen dat als de ontwikkeling of het gebruik van de deadbot niet overeenkomt met wat de geïmiteerde persoon heeft afgesproken, hun toestemming als ongeldig moet worden beschouwd. Bovendien, als het duidelijk en opzettelijk hun waardigheid schaadt, zou zelfs hun toestemming niet voldoende moeten zijn om het als ethisch te beschouwen.

Wie neemt de verantwoordelijkheid?

Een derde kwestie is of kunstmatige-intelligentiesystemen moeten streven naar het nabootsen van elke soort van menselijk gedrag (ongeacht of dit mogelijk is).

Dit is al lang een punt van zorg op het gebied van AI en is nauw verbonden met het geschil tussen Rohrer en OpenAI. Moeten we kunstmatige systemen ontwikkelen die bijvoorbeeld in staat zijn om voor anderen te zorgen of politieke beslissingen te nemen? Het lijkt erop dat er iets in deze vaardigheden zit dat mensen anders maakt dan andere dieren en machines. Daarom is het belangrijk op te merken dat het instrumentaliseren van AI voor techno-solutionistische doeleinden, zoals het vervangen van dierbaren, kan leiden tot een devaluatie van wat ons als mensen kenmerkt.

De vierde ethische vraag is wie verantwoordelijk is voor de uitkomsten van een deadbot, vooral in het geval van schadelijke effecten.

Stel je voor dat Jessica's deadbot autonoom leerde presteren op een manier die haar geheugen vernederde of Barbeau's geestelijke gezondheid onomkeerbaar schaadde. Wie zou de verantwoordelijkheid nemen? AI-experts beantwoorden deze glibberige vraag via twee hoofdbenaderingen:ten eerste ligt de verantwoordelijkheid bij degenen die betrokken zijn bij het ontwerp en de ontwikkeling van het systeem, zolang ze dit doen in overeenstemming met hun specifieke interesses en wereldbeelden; ten tweede zijn systemen voor machinaal leren contextafhankelijk, dus de morele verantwoordelijkheden van hun output moeten worden verdeeld over alle agenten die ermee omgaan.

Ik plaats mezelf dichter bij de eerste positie. In dit geval, aangezien er een expliciete co-creatie van de deadbot is waarbij OpenAI, Jason Rohrer en Joshua Barbeau betrokken zijn, vind ik het logisch om het niveau van verantwoordelijkheid van elke partij te analyseren.

Ten eerste zou het moeilijk zijn om OpenAI verantwoordelijk te maken nadat ze het gebruik van hun systeem expliciet hebben verboden voor seksuele, amoureuze, zelfbeschadiging- of pestdoeleinden.

Het lijkt redelijk om Rohrer een aanzienlijk niveau van morele verantwoordelijkheid toe te kennen omdat hij:(a) expliciet het systeem ontwierp dat het mogelijk maakte om de deadbot te creëren; (b) het heeft gedaan zonder te anticiperen op maatregelen om mogelijke nadelige gevolgen te voorkomen; (c) zich ervan bewust was dat het niet voldeed aan de richtlijnen van OpenAI; en (d) ervan profiteerde.

En omdat Barbeau de deadbot-tekening heeft aangepast op specifieke kenmerken van Jessica, lijkt het legitiem om hem medeverantwoordelijk te houden voor het geval dat haar geheugen zou worden aangetast.

Ethisch, onder bepaalde voorwaarden

Dus terugkomend op onze eerste, algemene vraag of het ethisch verantwoord is om een ​​machine-learning deadbot te ontwikkelen, zouden we een bevestigend antwoord kunnen geven op voorwaarde dat:

  • zowel de persoon die wordt nagebootst als degene die het systeem aanpast en ermee communiceert, hebben hun vrije toestemming gegeven voor een zo gedetailleerd mogelijke beschrijving van het ontwerp, de ontwikkeling en het gebruik van het systeem;
  • ontwikkelingen en toepassingen die niet vasthouden aan waartoe de geïmiteerde persoon heeft ingestemd of die indruisen tegen hun waardigheid, zijn verboden;
  • de mensen die betrokken zijn bij de ontwikkeling en degenen die ervan profiteren, nemen de verantwoordelijkheid voor de mogelijke negatieve resultaten. Zowel met terugwerkende kracht, om rekening te houden met gebeurtenissen die hebben plaatsgevonden, als prospectief, om actief te voorkomen dat ze in de toekomst plaatsvinden.

Deze casus illustreert waarom de ethiek van machine learning ertoe doet. Het illustreert ook waarom het essentieel is om een ​​openbaar debat te openen dat burgers beter kan informeren en ons kan helpen beleidsmaatregelen te ontwikkelen om AI-systemen opener, sociaal rechtvaardiger en in overeenstemming met de grondrechten te maken.