science >> Wetenschap >  >> Elektronica

Fysieke training is de volgende hindernis voor kunstmatige intelligentie, zegt onderzoeker

Krediet:Pixabay/CC0 publiek domein

Laat een miljoen apen een miljoen jaar lang op een miljoen typemachines klikken en, het gezegde luidt, ze zullen de werken van Shakespeare reproduceren. Geef oneindige apen oneindig veel tijd, en ze zullen de poëtische wending van de zin van de bard nog steeds niet waarderen, zelfs als ze de woorden kunnen typen. Hetzelfde geldt voor kunstmatige intelligentie (AI), volgens Michael Woolridge, hoogleraar informatica aan de Universiteit van Oxford. Het probleem, zei hij, is niet de verwerkingskracht, maar eerder een gebrek aan ervaring.

Zijn perspectief werd op 25 juli gepubliceerd in Intelligent Computing .

"In de afgelopen 15 jaar heeft de snelheid van vooruitgang in AI in het algemeen, en machine learning (ML) in het bijzonder, doorgewinterde AI-commentatoren zoals ikzelf herhaaldelijk verrast:we hebben onze verwachtingen over wat er gaat gebeuren voortdurend opnieuw gekalibreerd. mogelijk zijn en wanneer," zei Wooldridge.

"Ondanks het feit dat hun prestaties geprezen moeten worden, denk ik dat er één cruciaal aspect is waarin de meeste grote ML-modellen sterk beperkt zijn:de wereld en het feit dat de modellen er gewoon geen ervaring mee hebben."

De meeste ML-modellen zijn gebouwd in virtuele werelden, zoals videogames. Ze kunnen trainen op enorme datasets, maar voor fysieke toepassingen missen ze essentiële informatie. Wooldridge noemde als voorbeeld de AI die aan autonome voertuigen ten grondslag ligt.

"Auto's zonder bestuurder op de weg laten lopen om zelf te leren, is een non-starter, dus om deze en andere redenen kiezen onderzoekers ervoor om hun modellen in virtuele werelden te bouwen," zei Wooldridge. "En op deze manier worden we enthousiast over een generatie AI-systemen die simpelweg niet in staat zijn om te werken in de allerbelangrijkste omgeving:onze wereld."

Taal-AI-modellen daarentegen zijn ontwikkeld zonder de pretentie van een wereld, maar hebben nog steeds dezelfde beperkingen. Ze zijn bij wijze van spreken geëvolueerd van lachwekkend verschrikkelijke voorspellende teksten tot Google's LaMDA, dat eerder dit jaar de krantenkoppen haalde toen een nu voormalige Google-ingenieur beweerde dat de AI gevoelig was.

"Wat de validiteit van de conclusies van [de ingenieur] ook was, het was duidelijk dat hij diep onder de indruk was van LaMDA's vermogen om te converseren - en met goede reden," zei Wooldridge, opmerkend dat hij persoonlijk niet gelooft dat LaMDA bewust is, en AI ook niet in de buurt komt van dergelijke een mijlpaal.

"Deze fundamentele modellen demonstreren ongekende mogelijkheden in het genereren van natuurlijke taal, waardoor uitgebreide stukken natuurlijk klinkende tekst worden geproduceerd. Ze lijken ook enige competentie te hebben verworven in gezond verstand redeneren, een van de heilige gralen van AI-onderzoek in de afgelopen 60 jaar."

Dergelijke modellen zijn neurale netwerken, die zich voeden met enorme datasets en trainen om ze te begrijpen. GPT-3, een voorloper van LaMDA, heeft bijvoorbeeld getraind in alle Engelse tekst die op internet beschikbaar is. De hoeveelheid trainingsgegevens in combinatie met aanzienlijke rekenkracht maakt de modellen vergelijkbaar met menselijke hersenen, waar ze voorbij nauwe taken gaan om patronen te herkennen en verbindingen te maken die schijnbaar niets met de primaire taak te maken hebben.

"De gok met basismodellen is dat hun uitgebreide en brede training leidt tot nuttige competenties op een aantal gebieden, die vervolgens kunnen worden gespecialiseerd voor specifieke toepassingen," zei Wooldridge. "Terwijl symbolische AI ​​was gebaseerd op de veronderstelling dat intelligentie in de eerste plaats een kennisprobleem is, zijn basismodellen gebaseerd op de veronderstelling dat intelligentie in de eerste plaats een probleem van gegevens is. Om te vereenvoudigen, maar niet zozeer, om voldoende trainingsgegevens naar grote modellen te gooien, en hopelijk zal competentie ontstaan."

Deze "misschien klopt"-benadering schaalt de modellen groter om slimmere AI te produceren, betoogde Wooldridge, maar dit negeert de fysieke knowhow die nodig is om AI echt vooruit te helpen.

"Om eerlijk te zijn, zijn er enkele tekenen dat dit aan het veranderen is," zei Wooldridge, wijzend op het Gato-systeem. Aangekondigd in mei door DeepMind, zou het basismodel, getraind op grote talensets en op robotgegevens, kunnen werken in een eenvoudige maar fysieke omgeving.

"Het is geweldig om te zien hoe de eerste babystapjes in de fysieke wereld worden gezet door basismodellen. Maar het zijn slechts babystapjes:de uitdagingen die moeten worden overwonnen om AI in onze wereld te laten werken, zijn minstens zo groot - en waarschijnlijk groter - dan de uitdagingen waarmee we worden geconfronteerd door AI te laten werken in gesimuleerde omgevingen." + Verder verkennen

Een software-engineer van Google gelooft dat een AI bewust is geworden. Als hij gelijk heeft, hoe kunnen we dat dan weten?