Wetenschap
Krediet:CC0 Publiek Domein
In de HBO-show Westworld , robots ontworpen om emoties weer te geven, pijn voelen, en sterf zoals mensen een uitgestrekt themapark in westerse stijl bevolken voor rijke gasten die betalen om hun fantasieën uit te voeren. Naarmate de voorstelling vordert, en de robots leren meer over de wereld waarin ze leven, ze beginnen te beseffen dat ze het speelgoed zijn van de persoon die ze heeft geprogrammeerd.
Kijkers zouden kunnen concluderen dat mensen zich robots met zulke geavanceerde kunstmatige intelligentie moeten veroorloven, zoals die in Westworld -dezelfde ethische bescherming die we elkaar bieden. Maar Westworld is een fictief tv-programma. En robots met de cognitieve verfijning van mensen bestaan niet.
Maar door de vooruitgang op het gebied van kunstmatige intelligentie door universiteiten en technologiebedrijven zijn we dichter dan ooit bij het creëren van machines die "ongeveer zo cognitief geavanceerd zijn als muizen of honden, " zegt John Basl, die een assistent-professor filosofie is aan de Northeastern University. Hij stelt dat deze machines dezelfde ethische bescherming verdienen die we geven aan dieren die bij onderzoek betrokken zijn.
"Het nachtmerriescenario is dat we een machinegeest creëren, en zonder het te weten, doe er iets aan dat pijnlijk is, " zegt Basl. "We creëren een bewust wezen en laten het dan lijden."
Comités voor dierenverzorging en -gebruik houden wetenschappelijk onderzoek nauwlettend in de gaten om ervoor te zorgen dat dieren niet onnodig lijden, en de normen zijn nog hoger voor onderzoek waarbij menselijke stamcellen betrokken zijn, zegt Bazel.
Naarmate wetenschappers en ingenieurs dichter bij het creëren van kunstmatig intelligente machines komen die bewust zijn, de wetenschappelijke gemeenschap moet een soortgelijk raamwerk bouwen om deze intelligente machines te beschermen tegen lijden en pijn, te, zegt Bazel.
"Meestal wachten we tot we een ethische catastrofe hebben, en maak daarna regels om te voorkomen dat het nog een keer gebeurt, " zegt Basl. "We zeggen dat we hier nu over moeten gaan nadenken, voordat we een catastrofe hebben."
Basl en zijn collega aan de Universiteit van Californië, rivieroever, de oprichting van toezichtcomités voorstellen, bestaande uit cognitieve wetenschappers, kunstmatige intelligentie ontwerpers, filosofen, en ethici - om onderzoek met kunstmatige intelligentie zorgvuldig te evalueren. En ze zeggen dat het waarschijnlijk is dat dergelijke commissies al het huidige onderzoek naar kunstmatige intelligentie als toelaatbaar zullen beoordelen.
Maar aan de basis van dit alles ligt een filosofische vraag:hoe weten we wanneer we een machine hebben gemaakt die vreugde en lijden kan ervaren, vooral als die machine die gevoelens niet aan ons kan overbrengen?
Er is geen eenvoudig antwoord op deze vraag, Bazel zegt, gedeeltelijk omdat wetenschappers het niet eens zijn over wat bewustzijn eigenlijk is.
Sommige mensen hebben een "liberale" kijk op bewustzijn, zegt Bazel. Ze geloven dat alles wat nodig is om bewustzijn te laten bestaan "goed georganiseerde informatieverwerking, " en een middel om aandacht te besteden aan en plannen te maken voor de lange termijn. Mensen met meer "conservatieve" opvattingen, hij zegt, vereisen dat robots specifieke biologische kenmerken hebben, zoals een brein dat lijkt op dat van een zoogdier.
Op dit punt, Bazel zegt, het is niet duidelijk welke opvatting de juiste zou kunnen zijn, of dat er een andere manier is om bewustzijn te definiëren die we nog niet hebben overwogen. Maar, als we de meer liberale definitie van bewustzijn gebruiken, wetenschappers kunnen binnenkort intelligente machines maken die pijn en lijden kunnen voelen, en die ethische bescherming verdienen, zegt Bazel.
"We kunnen heel ver verwijderd zijn van het creëren van een bewuste AI, of we zouden dichtbij kunnen zijn, ' zegt Basl. 'We moeten voorbereid zijn voor het geval we in de buurt zijn.'
Wetenschap © https://nl.scienceaq.com