Wetenschap
Krediet:Universiteit van West-Ontario
Terwijl David Bowman - het overlevende bemanningslid aan boord van het ruimtevaartuig Discovery One in Stanley Kubrick's 2001:A Space Odyssey - HAL 9000 uit elkaar haalt, de bewuste computer pleit in een gevoelloze, monotone stem:
"Ik ben bang, Davy."
"Dave, mijn geest gaat. Ik voel het."
Als het bewustzijn van HAL – of liever, zijn logica - vervaagt, hij sterft terwijl hij Daisy Bell zingt, het eerste nummer 'gezongen' door een echte computer. Met de dreiging verwijderd, alles lijkt weer in orde.
Viert deze maand zijn 50-jarig jubileum, Kubricks meesterwerk werpt sinds de première een schaduw over het genre. Zijn invloed reikt verder dan afbeeldingen van ruimte en ruimtereizen, ontroerend meer dan Star Wars, Alien of Blade Runner.
Bijvoorbeeld, het effect ervan op onze visie op kunstmatige intelligentie (AI) is voelbaar.
Denk aan Alexa van Amazon, WHO, zoals HAL, luistert naar wat je zegt.
Maar nu, vijf decennia later, zijn we voorbij Kubricks nachtmerrie van een bewuste, dreigende machine? Hoe heeft ons begrip van, en relatie met, AI veranderd? Hebben we een reden om bang te zijn voor de machines die we programmeren?
Voor Catharina Stinson, die onlangs een postdoctorale fellowship heeft afgerond aan het Western Rotman Institute of Philosophy, Kubricks visie, hoewel veel anders dan de huidige staat van AI, is nog steeds een dreigend gevaar. De bedreiging, echter, is niet de automaat.
"Mensen dachten toen heel anders over AI, het gevaar was dat het een agent zou zijn die anders zou handelen dan wij, met andere prioriteiten dan we hebben, " ze zei.
"Dat is nu minder de zorg. Het zullen niet de één-op-één interacties (met een bewuste machine) zijn waar we niet mee om kunnen gaan. Het zal iets zijn waar we al ons kwaad in hebben gestopt , en nu doet het dingen die een verlengstuk zijn van de problemen van mensen - maar op een grotere schaal die we ons niet hadden kunnen voorstellen. Het is niet zozeer dat machines anders zijn dan wij - ze reproduceren de problemen van mensen."
Een deel van de kwestie, Stinson legde uit, is dat mensen degenen zijn die AI programmeren. Hoe kunnen mensen ethische machines programmeren? Kunnen machines ethisch zijn? We beschouwen onszelf als competent in het nemen van ethische beslissingen, omdat we regelmatig tussen goed en kwaad beslissen, ze zei. We vertrouwen op een instinct dat we in dagelijkse situaties goed en fout onderscheiden.
"Maar in meer gecompliceerde situaties die zich voordoen, zoals zelfrijdende auto's, is het echt moeilijk, zelfs voor iemand die wel een opleiding in ethiek heeft gevolgd, om te ontwerpen wat het juiste is om erin in te bouwen, ’ merkte Stinson op.
Bijvoorbeeld, als de auto niet tegen een voetganger aanrijdt, zelfs als het zal leiden tot de dood van de bestuurder? Hoe weeg je de twee verschillende levens in gevaar? Programmeert u de auto om de inzittenden van het voertuig of degenen met wie het zou kunnen botsen te redden?
"Ik weet niet hoe ik zo'n beslissing moet nemen. Ik weet niet dat die beslissing iets is dat de gemiddelde persoon weet te nemen. Het vereist een meer zorgvuldige benadering en iemand met meer expertise moet erbij worden betrokken. Maar het is moeilijk te zien dat die behoefte bestaat, omdat iedereen denkt dat ze een expert zijn, ’ voegde Stinson eraan toe.
Personen die technische en technologische cursussen volgen, moeten worden opgeleid in ethiek, voegde ze eraan toe. Behalve dat, bedrijven die in AI werken, kunnen baat hebben bij een interne ethicus. Academische instellingen eisen steeds vaker van ingenieurs en computerwetenschappers dat ze vakken volgen die het onderwerp raken. Hoewel de kwestie van 'ethische machines' ter discussie staat, het simpele feit dat we ze kunnen programmeren om handelingen uit te voeren die goed of fout zijn, brengt hen in een "ethisch spel, ' zei Stinson.
"Misschien zouden we een machine kunnen programmeren om vaker het juiste te doen dan we zouden doen. Maar is er reden om bang te zijn? Zeker. Er worden machines gebruikt in het rechtssysteem in de Verenigde Staten, beslissingen nemen die misschien niet de juiste zijn. We weten niet zeker hoe ze die beslissingen nemen en er is geen verantwoordelijkheid aan wiens schuld het is als ze de verkeerde beslissing nemen. " merkte ze op.
Met name voor de veroordeling er zijn AI-programma's die rechters helpen beslissen wat de juiste straf moet zijn voor iemand die is veroordeeld voor een misdrijf. Het algoritme is ontworpen om de veroordeling minder partijdig te maken door rekening te houden met factoren uit het verleden van de persoon, in wat voor buurt ze zijn opgegroeid, wat voor soort mensen ze kenden, eerdere arrestaties, leeftijd van eerste betrokkenheid bij de politie, enzovoort.
Al die dingen zijn geen neutrale stukjes informatie, zei Stinson. Dergelijke AI-programma's zijn bekritiseerd omdat ze de stereotypen versterken die ze moesten vermijden.
"We weten niet wat de gevaren zijn. Een deel van ons zorgen maken over de gevaren is proberen te voorspellen wat die zouden kunnen zijn, en om te beslissen wat we waarderen, en wat voor soort dingen we willen dat er gebeurt, voor het gemak, ' zei Stinson.
Tim Zwartmeer, hoogleraar aan de Faculteit Informatie- en Mediastudies, geeft al meer dan tien jaar les in 2001:A Space Odyssey aan studenten. Hij herhaalde Stinson, opmerkend dat de gevaren van AI liggen in het menselijke element dat in het spel is. Voor hem, welke vorm het ook aanneemt in films of boeken, AI is altijd een verlengstuk van de mens geweest.
"Denkende machines worden vaak afgeschilderd als bewust van hun eigen bestaan en bewust van existentiële problemen. Ze zijn een van de vele spiegels die mensen gebruiken om weer te geven wat het is om mens te zijn, ' zei Blackmore.
En dat is de nachtmerrie.
"Tot nu, het is een soort nachtmerrie geweest van een 'machine die de wereld regeert'. Dat komt uit de jaren 60 en is sterk gevormd door Vietnam, evenals het idee van deze mainframes, deze grote machines, maakten deel uit van een wereldbeeld dat ons in een onmenselijke, deterministische manier van leven die zou leiden tot genociden, " hij legde uit.
Maar de dreiging van vandaag ligt niet in onze visie van AI als een machine uit de toekomst die ons kan overtreffen of overwinnen.
"We stellen ons veel minder WALL-E voor - de helpermachine. Maar dat is veel meer. Het zijn niet de machines die een probleem zijn; het zijn de mensen. Mensen doen slechte dingen, " Blackmore merkte op, eraan toevoegend dat hij nerveus is over de "helper" -machines die we blindelings omarmen.
"Ik maak me zorgen over deze schijven en cilinders of wat voor Amazon dan ook, Google of Facebook willen hierna ons huis binnendringen. Mensen willen dit; het is een gadget en het is cool omdat het zo moeilijk is om je mobiele telefoon op te pakken en er iets in te typen of erin te spreken. We gaan de trog in en we zuigen dat spul op, en dan zullen we terabytes aan gegevens in pools laten vliegen waar ze voor alles kunnen worden schoongemaakt. Die gegevens kunnen worden gemanipuleerd door AI-agenten die steeds beter kunnen zoeken naar hoe ze mensen kunnen bespelen, " hij ging verder.
"Hoe deze technologie zich zal ontwikkelen zodat mensen mensen kunnen duwen - dat is wat meestal slecht nieuws voor ons is. De robotopstand staat lager op mijn lijst."
Wetenschap © https://nl.scienceaq.com