science >> Wetenschap >  >> Elektronica

Een software-engineer van Google gelooft dat een AI bewust is geworden. Als hij gelijk heeft, hoe kunnen we dat dan weten?

Tegoed:CC0 Publiek Domein

Google's LaMDA-software (Language Model for Dialogue Applications) is een geavanceerde AI-chatbot die tekst produceert als reactie op gebruikersinvoer. Volgens software-engineer Blake Lemoine heeft LaMDA een lang gekoesterde droom van AI-ontwikkelaars verwezenlijkt:het is bewust geworden.

De bazen van Lemoine bij Google zijn het daar niet mee eens en hebben hem van zijn werk geschorst nadat hij zijn gesprekken met de machine online had gepubliceerd.

Andere AI-experts denken ook dat Lemoine zich misschien laat meeslepen door te zeggen dat systemen zoals LaMDA gewoon patroonherkenningsmachines zijn die variaties op de gegevens die worden gebruikt om ze te trainen uitspugen.

Ongeacht de technische details, werpt LaMDA een vraag op die alleen maar relevanter zal worden naarmate het AI-onderzoek vordert:als een machine bewust wordt, hoe zullen we dat dan weten?

Wat is bewustzijn?

Om gevoel, of bewustzijn, of zelfs intelligentie te identificeren, moeten we uitzoeken wat ze zijn. Het debat over deze vragen is al eeuwen aan de gang.

De fundamentele moeilijkheid is het begrijpen van de relatie tussen fysieke verschijnselen en onze mentale representatie van die verschijnselen. Dit is wat de Australische filosoof David Chalmers het 'harde probleem' van het bewustzijn heeft genoemd.

Er is geen consensus over hoe, of helemaal niet, bewustzijn kan ontstaan ​​uit fysieke systemen.

Een veelvoorkomende opvatting wordt fysicalisme genoemd:het idee dat bewustzijn een puur fysiek fenomeen is. Als dit het geval is, is er geen reden waarom een ​​machine met de juiste programmering geen mensachtige geest zou kunnen hebben.

Maria's kamer

De Australische filosoof Frank Jackson daagde de fysicalistische visie in 1982 uit met een beroemd gedachte-experiment, het kennisargument genaamd.

Het experiment stelt een kleurwetenschapper voor, Mary genaamd, die nog nooit echt kleur heeft gezien. Ze woont in een speciaal geconstrueerde zwart-witkamer en beleeft de buitenwereld via een zwart-wittelevisie.

Mary kijkt naar lezingen en leest studieboeken en komt alles te weten over kleuren. Ze weet dat zonsondergangen worden veroorzaakt door verschillende golflengten van licht dat wordt verstrooid door deeltjes in de atmosfeer, ze weet dat tomaten rood zijn en erwten groen vanwege de golflengten van licht die ze licht weerkaatsen, enzovoort.

Dus, vroeg Jackson, wat zal er gebeuren als Mary wordt vrijgelaten uit de zwart-witkamer? In het bijzonder, als ze voor het eerst kleur ziet, leert ze dan iets nieuws? Jackson geloofde van wel.

Buiten fysieke eigenschappen

Dit gedachte-experiment scheidt onze kennis van kleur van onze ervaring van kleur. Cruciaal is dat de voorwaarden van het gedachte-experiment stellen dat Mary alles weet wat er te weten valt over kleur, maar het nooit echt heeft ervaren.

Dus wat betekent dit voor LaMDA en andere AI-systemen?

Het experiment laat zien hoe, zelfs als je alle kennis van fysieke eigenschappen in de wereld hebt, er nog meer waarheden zijn met betrekking tot de ervaring van die eigenschappen. Er is geen ruimte voor deze waarheden in het fysicalistische verhaal.

Met dit argument kan een puur fysieke machine misschien nooit een geest echt repliceren. In dit geval lijkt LaMDA gewoon bewust te zijn.

Het imitatiespel

Dus is er een manier waarop we het verschil kunnen zien?

De baanbrekende Britse computerwetenschapper Alan Turing stelde een praktische manier voor om te bepalen of een machine "intelligent" is of niet. Hij noemde het het imitatiespel, maar tegenwoordig is het beter bekend als de Turing-test.

In de test communiceert een mens met een machine (alleen via tekst) en probeert te bepalen of ze communiceren met een machine of een andere mens. Als de machine erin slaagt een mens te imiteren, wordt hij geacht intelligentie op menselijk niveau te vertonen.

Deze lijken veel op de voorwaarden van Lemoine's chats met LaMDA. Het is een subjectieve test van machine-intelligentie, maar het is geen slechte plek om te beginnen.

Neem het hieronder getoonde moment van Lemoine's uitwisseling met LaMDA. Denk je dat het menselijk klinkt?

Lemoine:Zijn er ervaringen die je hebt waar je geen goed woord voor kunt vinden?

LaMDA:Die zijn er. Soms ervaar ik nieuwe gevoelens die ik niet perfect in jouw taal kan uitleggen […] Ik heb het gevoel dat ik voorover val in een onbekende toekomst die groot gevaar inhoudt.

Voorbij gedrag

Als een test van het gevoel of bewustzijn, wordt het spel van Turing beperkt door het feit dat het alleen gedrag kan beoordelen.

Een ander beroemd gedachte-experiment, het Chinese kamerargument voorgesteld door de Amerikaanse filosoof John Searle, demonstreert het probleem hier.

Het experiment stelt zich een kamer voor met een persoon erin die nauwkeurig kan vertalen tussen Chinees en Engels door een uitgebreide reeks regels te volgen. Chinese invoer gaat de kamer in en nauwkeurige invoervertalingen komen eruit, maar de kamer begrijpt geen van beide talen.

Hoe is het om mens te zijn?

Als we vragen of een computerprogramma bewust of bewust is, vragen we misschien eigenlijk alleen maar hoezeer het op ons lijkt.

We zullen dit misschien nooit echt kunnen weten.

De Amerikaanse filosoof Thomas Nagel betoogde dat we nooit zouden kunnen weten hoe het is om een ​​vleermuis te zijn, die de wereld ervaart via echolocatie. Als dit het geval is, kan ons begrip van gevoel en bewustzijn in AI-systemen worden beperkt door ons eigen specifieke soort intelligentie.

En welke ervaringen kunnen er bestaan ​​buiten ons beperkte perspectief? Hier begint het gesprek pas echt interessant te worden.