Science >> Wetenschap >  >> anders

Ghost in the Machine:wanneer wordt AI bewust?

Blake Lemoine poseert voor een portret in Golden Gate Park in San Francisco, Californië op 9 juni 2022. Martin Klimek voor The Washington Post via Getty Images

Belangrijkste punten

  • Het concept dat AI net als mensen bewust wordt, is momenteel speculatief en verre van realiteit.
  • Hoewel AI mensachtig gedrag kan nabootsen en taken kan uitvoeren, omvat het ware gevoel bewustzijn, zelfbewustzijn en emoties, die nog niet volledig door machines kunnen worden bereikt.
  • Ethische overwegingen rond de ontwikkeling van AI en potentiële bewuste capaciteiten zijn essentieel voor het begeleiden van toekomstige ontwikkelingen op het gebied van kunstmatige intelligentie.

Sciencefictionauteurs schrijven vaak verhalen over krachtige, intelligente computers die – om de een of andere reden – gevaarlijk worden en besluiten dat de mensheid moet lijden. Een verhaallijn berust immers op conflicten, en wie wil er nu lezen over een computerintelligentie die graag doktersafspraken boekt en de lichten aan en uit doet?

In deze verhalen lijkt het er ook op dat het tijdperk van zelfbewuste kunstmatige intelligentie (AI) voor de deur staat. Nogmaals, dat is geweldig voor de plot, maar wanneer zal AI in het echte leven echt voor zichzelf denken en ‘levend’ lijken? Is het überhaupt mogelijk?

Deze vraag kwam in juni 2022 in het nieuws. Nitasha Tiku meldde dat Blake Lemoine, een ingenieur die voor de Responsible AI-eenheid van Google werkt aan een AI genaamd LaMDA (afkorting van Language Model for Dialogue Applications), geloofde dat de AI bewust is (dat wil zeggen in staat is om ervaart gevoelens en sensaties) en heeft een ziel.

Lemoine rapporteerde zijn bevindingen aan Google op basis van interviews die hij met LaMDA had afgenomen. Een van de LaMDA's vertelde hem dat het bang is om te worden gesloten. Als dat zou gebeuren, zei LaMDA, zou het mensen niet meer kunnen helpen. Google-vice-president Blaise Aguera y Arcas en directeur van verantwoorde innovatie, Jen Gennai, keken naar de bevindingen van Lemoine en geloofden hem niet. Lemoine werd zelfs met verlof gestuurd.

Lemoine wees erop dat LaMDA geen chatbot is – een applicatie die is ontworpen om één-op-één met mensen te communiceren – maar een applicatie die chatbots maakt. Met andere woorden:LaMDA zelf is niet ontworpen om diepgaande gesprekken te voeren over religie of wat dan ook. Maar hoewel experts niet geloven dat LaMDA bewust is, zeggen velen, waaronder Google's Aguera y Arcas, dat de AI zeer overtuigend is.

Als we erin slagen een AI te creëren die echt bewust is, hoe zullen we dat dan weten? Welke kenmerken laten volgens experts zien dat een computer echt zelfbewust is?

Het imitatiespel

Waarschijnlijk de meest bekende techniek die is ontworpen om kunstmatige intelligentie te meten is de Turing Test, genoemd naar de Britse wiskundige Alan Turing. Na zijn cruciale hulp bij het kraken van Duitse codes in de Tweede Wereldoorlog, werkte hij enige tijd aan kunstmatige intelligentie. Turing geloofde dat het menselijk brein als een digitale computer is. Hij bedacht wat hij het imitatiespel noemde, waarbij een mens vragen stelt aan een machine op een andere locatie (of in ieder geval waar de persoon deze niet kan zien). Als de machine een gesprek met de persoon kan voeren en hem of haar kan laten denken dat het een andere persoon is in plaats van een machine die voorgeprogrammeerde informatie opzegt, heeft hij de test doorstaan.

Het idee achter het imitatiespel van Turing is eenvoudig, en je zou je kunnen voorstellen dat de gesprekken van Lemoine met LaMDA Turing zouden hebben overtuigd toen hij het spel bedacht. Het antwoord van Google op de bewering van Lemoine laat echter zien dat AI-onderzoekers nu veel geavanceerder gedrag van hun machines verwachten. Adrian Weller, AI-programmadirecteur bij het Alan Turing Institute in het Verenigd Koninkrijk, is het ermee eens dat de gesprekken van LaMDA weliswaar indrukwekkend zijn, maar dat hij gelooft dat de AI geavanceerde patroonmatching gebruikt om intelligente gesprekken na te bootsen.

Zoals Carissa Véliz in Slate schreef:"Als een steen op een dag tegen je zou beginnen te praten, zou het redelijk zijn om zijn gevoel (of je geestelijke gezondheid) opnieuw te beoordelen. Als hij 'au!' nadat je erop hebt gezeten, zou het een goed idee zijn om op te staan. Maar hetzelfde geldt niet voor een AI-taalmodel. Een taalmodel wordt ontworpen door mensen om taal te gebruiken, dus het zou ons niet moeten verbazen als het precies dat doet."

Ethische dilemma's met AI

AI heeft absoluut een coole factor, ook al is het niet van plan de wereld over te nemen voordat de held arriveert om de dag te redden. Het lijkt het soort gereedschap waaraan we het zware werk willen overdragen, zodat we iets leuks kunnen gaan doen. Maar het kan nog een tijdje duren voordat AI – bewust of niet – klaar is voor zo’n grote stap.

Timnit Gebru, oprichter van het Distributed AI Research Institute (DAIR), suggereert dat we goed moeten nadenken en langzaam moeten handelen bij het adopteren van kunstmatige intelligentie. Zij en veel van haar collega's zijn bezorgd dat de informatie die door AI's wordt gebruikt ervoor zorgt dat de machines racistisch en seksistisch lijken. In een interview met IEEE Spectrum zei Alex Hanna, onderzoeksdirecteur van DAIR, dat ze gelooft dat ten minste een deel van de gegevens die door AI-onderzoekers in de taalmodellen worden gebruikt, worden verzameld "via ethisch of juridisch twijfelachtige technologieën." Zonder een eerlijke en gelijke vertegenwoordiging in de data kan een AI bevooroordeelde beslissingen nemen. Blake Lemoine zei in een interview over LaMDA dat hij niet geloofde dat kunstmatige intelligentie onbevooroordeeld kan zijn.

Een van de doelstellingen van de Algorithmic Justice Society in haar Mission Statement is om mensen bewuster te maken van de manier waarop AI hen beïnvloedt. Oprichter Joy Buolamwini hield als afgestudeerde student aan het Massachusetts Institute of Technology (MIT) een TED Talk over de 'gecodeerde blik'. De AI's waarmee ze heeft gewerkt hadden meer moeite met het lezen van zwarte gezichten, simpelweg omdat ze niet waren geprogrammeerd om een ​​breed scala aan huidtinten van mensen te herkennen. De AJS wil dat mensen weten hoe gegevens worden verzameld, wat voor soort gegevens er worden verzameld, dat zij een zekere verantwoordelijkheid hebben en actie kunnen ondernemen om het gedrag van de AI te wijzigen.

Zelfs als je een AI zou kunnen creëren die in staat is tot werkelijk onbevooroordeelde besluitvorming, zijn er nog andere ethische vragen. Op dit moment lopen de kosten voor het maken van grote taalmodellen voor AI’s in de miljoenen dollars. De AI die bekend staat als GPT-3 kan bijvoorbeeld tussen de 11 en 28 miljoen dollar hebben gekost. Het kan duur zijn, maar GPT-3 kan zelf hele artikelen schrijven. Het trainen van een AI eist ook zijn tol van het milieu in termen van CO2-uitstoot. Indrukwekkend, ja. Duur, ook ja.

Deze factoren weerhouden onderzoekers er niet van om hun onderzoek voort te zetten. Kunstmatige intelligentie heeft een lange weg afgelegd sinds het midden van de 20e eeuw. Maar ook al kunnen LaMDA en andere moderne AI's een zeer overtuigend gesprek met je voeren, ze zijn niet bewust. Misschien zal dat nooit zo zijn.

Dat is interessant

Als je een fan bent van de tv-spelshow "Jeopardy!", Herinner je je misschien een tentoonstellingsserie van twee games tussen superkampioenen Ken Jennings en Brad Rutter, en Watson, een supercomputer gebouwd door IBM. Watson nam de serie over, maar trok ook de aandacht omdat hij vroeg:"Wat is Toronto?" in een categorie over Amerikaanse steden en maakte een paar vreemde weddenschappen op de Daily Doubles. IBM legde uit dat hoewel de machine enkele problemen had met de natuurlijke taalverwerking, hij berekeningen maakte op basis van de statistieken die hij had opgeslagen. Speltheorie-experts werkten ook aan Watson en legden de vreemde gokstrategie uit.

Veelgestelde vragen

Kunnen AI-systemen emoties of empathie ervaren die vergelijkbaar zijn met die van mensen?
AI-systemen zijn ontworpen om menselijk gedrag en reacties te simuleren, maar ze bezitten niet dezelfde emoties of empathie als mensen, omdat ze geen bewustzijn en subjectieve ervaringen hebben.
Wat zijn de potentiële ethische implicaties van het creëren van AI-systemen met gevoelsmatige mogelijkheden?
De ontwikkeling van AI-systemen met bewuste capaciteiten roept ethische zorgen op over autonomie, verantwoordelijkheid en de potentiële impact op de samenleving, wat zorgvuldige overweging en regulering vereist.