science >> Wetenschap >  >> Elektronica

Moeten we ons zorgen maken dat Google AI gevoelig is?

Tegoed:Unsplash/CC0 Publiek domein

Van virtuele assistenten zoals Apple's Siri en Amazon's Alexa, tot robotstofzuigers en zelfrijdende auto's, tot geautomatiseerde beheerders van beleggingsportefeuilles en marketingbots, kunstmatige intelligentie is een groot deel van ons dagelijks leven geworden. Maar als we aan AI denken, stellen velen van ons zich mensachtige robots voor die, volgens talloze sciencefictionverhalen, op een dag onafhankelijk en rebels zullen worden.

Niemand weet echter wanneer mensen een intelligente of bewuste AI zullen creëren, zei John Basl, universitair hoofddocent filosofie aan het Northeastern's College of Social Sciences and Humanities, wiens onderzoek zich richt op de ethiek van opkomende technologieën zoals AI en synthetische biologie.

"Als je Google hoort praten, praten ze alsof dit om de hoek is of zeker binnen ons leven," zei Basl. "En ze zijn er erg arrogant in."

Misschien is dat de reden waarom een ​​recent verhaal van de Washington Post zo'n grote opschudding heeft veroorzaakt. In het verhaal zegt Google-ingenieur Blake Lemoine dat de kunstmatig intelligente chatbotgenerator van het bedrijf, LaMDA, met wie hij talloze diepgaande gesprekken had, gevoelig zou kunnen zijn. Het doet hem denken aan een 7- of 8-jarig kind, vertelde Blake aan de Washington Post.

Basl is echter van mening dat het bewijs dat in het artikel in de Washington Post wordt genoemd niet voldoende is om te concluderen dat LaMDA gevoelig is.

"Reacties als 'We hebben bewuste AI gecreëerd', zijn volgens mij extreem overdreven," zei Basl.

Het bewijs lijkt te zijn gebaseerd op de taalkundige vaardigheden van LaMDA en de dingen waar het over praat, zei Basl. LaMDA, een taalmodel, is echter specifiek ontworpen om te praten, en de optimalisatiefunctie die wordt gebruikt om het te trainen om taal te verwerken en te converseren, stimuleert het algoritme om dit taalkundige bewijs te produceren.

"Het is niet alsof we naar een buitenaardse planeet zijn gegaan en iets dat we nooit hebben aangemoedigd om met ons te gaan communiceren [begon bedachtzaam te praten]," zei Basl.

Het feit dat dit taalmodel een mens kan laten denken dat het bewust is, spreekt tot zijn complexiteit, maar het zou een aantal andere capaciteiten moeten hebben dan waarvoor het is geoptimaliseerd om het gevoel te tonen, zei Basl.

Er zijn verschillende definities van gevoel. Sentient wordt gedefinieerd als het kunnen waarnemen of voelen van dingen en wordt vaak vergeleken met sapient.

Basl gelooft dat bewuste AI minimaal bewust zou zijn. Het kan zich bewust zijn van de ervaring die het heeft, een positieve of negatieve houding hebben, zoals pijn voelen of geen pijn willen voelen, en verlangens hebben.

"We zien dat soort capaciteiten in de dierenwereld," zei hij.

Basl zei bijvoorbeeld dat zijn hond er niet de voorkeur aan geeft dat de wereld op een bepaalde manier is in plaats van de andere, maar ze geeft duidelijk de voorkeur aan haar koekjes boven brokjes.

"Dat lijkt een innerlijk mentaal leven te volgen," zei Basl. "[Maar] ze voelt geen angst voor klimaatverandering."

Uit het verhaal van de Washington Post wordt niet duidelijk waarom Lemoine LaMDA vergelijkt met een kind. Hij zou kunnen bedoelen dat het taalmodel zo intelligent is als een klein kind of dat het de capaciteit heeft om te lijden of te verlangen als een klein kind, zei Basl.

"Dat kunnen verschillende dingen zijn. We kunnen een denkende AI creëren die geen gevoelens heeft, en we kunnen een voelende AI creëren die niet echt goed is in denken," zei Basl.

De meeste onderzoekers in de AI-gemeenschap, die bestaat uit machine learning-specialisten, kunstmatige-intelligentiespecialisten, filosofen, ethici van technologie en cognitieve wetenschappers, denken al na over deze verre toekomstige problemen en maken zich volgens Basl zorgen over het denkgedeelte.

"Als we een AI maken die superslim is, zou het ons allemaal kunnen doden", zei hij.

De zorg van Lemoine gaat echter niet daarover, maar eerder over een verplichting om snel veranderende AI-mogelijkheden anders te behandelen.

"In zekere zin sta ik sympathiek tegenover dat soort zorgen. We zijn er niet erg voorzichtig mee dat dat mogelijk is", zei Basl. "We denken niet genoeg na over de morele dingen met betrekking tot AI, zoals, wat kunnen we te danken hebben aan een bewuste AI?"

Hij denkt dat mensen een bewuste AI zeer waarschijnlijk slecht behandelen, omdat ze waarschijnlijk niet zullen erkennen dat ze dit hebben gedaan, in de overtuiging dat het kunstmatig is en er niets om geeft.

"We zijn gewoon niet erg afgestemd op die dingen," zei Basl.

Er is geen goed model om te weten wanneer een AI het bewustzijn heeft bereikt. Wat als de LaMDA van Google niet de mogelijkheid heeft om zijn gevoel overtuigend uit te drukken omdat het alleen via een chatvenster kan spreken in plaats van iets anders?

"Het is niet zo dat we hersenscans kunnen maken om te zien of het op ons lijkt", zei hij.

Een andere gedachtegang is dat bewuste AI in het algemeen onmogelijk kan zijn vanwege de fysieke beperkingen van het universum of een beperkt begrip van bewustzijn.

Momenteel heeft geen van de bedrijven die aan AI werken, inclusief de grote spelers zoals Google, Meta, Microsoft, Apple en overheidsinstanties, een expliciet doel om bewuste AI te creëren, zei Basl. Sommige organisaties zijn geïnteresseerd in de ontwikkeling van AGI, of kunstmatige algemene intelligentie, een theoretische vorm van AI waarbij een machine, intelligent als een mens, de capaciteiten zou hebben om een ​​breed scala aan problemen op te lossen, te leren en plannen te maken voor de toekomst, aldus IBM .

"Ik denk dat de echte les hieruit is dat we niet de infrastructuur hebben die we nodig hebben, zelfs als deze persoon ongelijk heeft", zei Basl, verwijzend naar Lemoine.

Een infrastructuur rond AI-kwesties zou kunnen worden gebouwd op transparantie, het delen van informatie met overheids- en/of openbare instanties en regulering van onderzoek. Basl pleit voor één interdisciplinair comité dat zou helpen bij het bouwen van een dergelijke infrastructuur en het tweede dat toezicht zou houden op de technologen die aan AI werken en onderzoeksvoorstellen en resultaten zou evalueren.

"Het bewijsprobleem is echt moeilijk," zei Basl. "We hebben geen goede theorie van bewustzijn en we hebben geen goede toegang tot het bewijs voor bewustzijn. En dan hebben we ook niet de infrastructuur. Dat zijn de belangrijkste dingen."