science >> Wetenschap >  >> Elektronica

Diep leren is de cirkel rond

Krediet:CC0 Publiek Domein

Voor jaren, de mensen die kunstmatige intelligentie ontwikkelden, lieten zich inspireren door wat er bekend was over het menselijk brein, en heeft daardoor veel succes gehad. Nutsvoorzieningen, AI begint de gunst terug te geven.

Hoewel niet expliciet bedoeld om dit te doen, bepaalde kunstmatige-intelligentiesystemen lijken de innerlijke werking van onze hersenen beter na te bootsen dan eerder werd gedacht, wat suggereert dat zowel AI als onze geest zijn samengekomen in dezelfde benadering van het oplossen van problemen. Als, simpelweg kijken naar AI op het werk kan onderzoekers helpen enkele van de diepste mysteries van de hersenen te ontrafelen.

"Er is een echte verbinding daar, " zei Daniël Yamins, assistent-professor psychologie. Nutsvoorzieningen, Yamins, die ook een faculteitswetenschapper is van het Stanford Neurosciences Institute en lid van Stanford Bio-X, en zijn laboratorium bouwen voort op die verbinding om betere theorieën over het brein te produceren - hoe het de wereld waarneemt, hoe het efficiënt van de ene taak naar de volgende verschuift en misschien, op een dag, hoe het denkt.

Een zichtprobleem voor AI

Kunstmatige intelligentie leent al sinds het begin van de hersenen, toen computerwetenschappers en psychologen algoritmen ontwikkelden, neurale netwerken genaamd, die de hersenen losjes nabootsten. Die algoritmen werden vaak bekritiseerd omdat ze biologisch onwaarschijnlijk waren - de 'neuronen' in neurale netwerken waren, ten slotte, grove vereenvoudigingen van de echte neuronen waaruit de hersenen bestaan. Maar computerwetenschappers gaven niets om biologische aannemelijkheid. Ze wilden gewoon systemen die werkten, dus breidden ze neurale netwerkmodellen uit op welke manier dan ook, waardoor het algoritme het best in staat was om bepaalde taken uit te voeren, culminerend in wat nu deep learning wordt genoemd.

Toen kwam er een verrassing. In 2012, AI-onderzoekers toonden aan dat een diep lerend neuraal netwerk zowel objecten in afbeeldingen als een mens kan leren identificeren, waardoor neurowetenschappers zich afvroegen:hoe heeft deep learning het gedaan?

Op dezelfde manier als de hersenen doen, zoals het blijkt. In 2014, Yamins en collega's toonden aan dat een diepgaand leersysteem dat had geleerd om objecten op afbeeldingen te identificeren - bijna net zo goed als mensen - dat deden op een manier die nauw aansluit bij de manier waarop de hersenen visie verwerken. In feite, de berekeningen die het deep learning-systeem uitvoerde, kwamen overeen met de activiteit in de visuele verwerkingscircuits van de hersenen, aanzienlijk beter dan enig ander model van die circuits.

Rond dezelfde tijd, andere teams maakten soortgelijke observaties over delen van de visuele en bewegingsverwerkingscircuits van de hersenen, wat suggereert dat, gegeven hetzelfde soort probleem, deep learning en de hersenen hadden vergelijkbare manieren ontwikkeld om met een oplossing te komen. Recenter, Yamins en collega's hebben soortgelijke waarnemingen aangetoond in het auditieve systeem van de hersenen.

Aan de ene kant, dat is geen grote verrassing. Hoewel de technische details verschillen, De conceptuele organisatie van deep learning is rechtstreeks ontleend aan wat neurowetenschappers al wisten over de organisatie van neuronen in de hersenen.

Maar het succes van de aanpak van Yamins en collega's en anderen die het leuk vinden, hangt evenzeer af van een ander, subtielere keuze. In plaats van te proberen het deep learning-systeem direct te laten aansluiten bij wat de hersenen doen op het niveau van individuele neuronen, zoals veel onderzoekers hadden gedaan, Yamins en collega's gaven hun deep learning-systeem eenvoudig hetzelfde probleem:objecten identificeren in afbeeldingen. Pas nadat het dat probleem had opgelost, vergeleken de onderzoekers hoe deep learning en het brein tot hun oplossingen kwamen - en pas toen werd duidelijk dat hun methoden in wezen hetzelfde waren.

"De overeenkomst tussen de modellen en het visuele systeem is niet helemaal toeval, omdat de een direct de ander inspireerde, " zei Daniël Beer, een postdoctoraal onderzoeker in de groep van Yamins, "maar het is toch opmerkelijk dat het zo'n goede correspondentie is als het is."

Een waarschijnlijke reden daarvoor, Beer zei, is natuurlijke selectie en evolutie. "In principe, objectherkenning was een zeer evolutionair belangrijke taak" voor dieren om op te lossen - en goed op te lossen, als ze het verschil wilden zien tussen iets dat ze konden eten en iets dat ze kon eten. Misschien probeerden onderzoekers dat net zo goed te doen als mensen en andere dieren - behalve met een computer - waardoor onderzoekers in wezen dezelfde oplossing vonden.

Zoek wat de hersenen zoeken

Wat de achterliggende reden ook is, inzichten uit de studie van 2014 leidden tot wat Yamins doelgerichte modellen van de hersenen noemt:in plaats van te proberen de neurale activiteit in de hersenen direct te modelleren, in plaats daarvan kunstmatige intelligentie trainen om problemen op te lossen die de hersenen moeten oplossen, gebruik vervolgens het resulterende AI-systeem als een model van de hersenen. Sinds 2014, Yamins en medewerkers hebben het oorspronkelijke doelgerichte model van de visuele circuits van de hersenen verfijnd en het werk in nieuwe richtingen uitgebreid, inclusief het begrijpen van de neurale circuits die input van de snorharen van knaagdieren verwerken.

In misschien wel het meest ambitieuze project, Yamins en postdoctoraal onderzoeker Nick Haber onderzoeken hoe baby's spelenderwijs leren over de wereld om hen heen. Hun baby's - eigenlijk relatief eenvoudige computersimulaties - worden alleen gemotiveerd door nieuwsgierigheid. Ze verkennen hun werelden door te bewegen en interactie te hebben met objecten, terwijl ze leren om te voorspellen wat er gebeurt als ze ballen raken of gewoon hun hoofd draaien. Tegelijkertijd, het model leert voorspellen welke delen van de wereld het niet begrijpt, probeert die dan uit te zoeken.

Terwijl de computersimulatie het leven begint - om zo te zeggen - die in wezen niets over de wereld weet, het komt er uiteindelijk achter hoe verschillende objecten moeten worden gecategoriseerd en zelfs hoe twee of drie ervan samen kunnen worden geslagen. Hoewel directe vergelijkingen met de neurale activiteit van baby's voorbarig kunnen zijn, het model zou onderzoekers kunnen helpen beter te begrijpen hoe baby's spelen gebruiken om meer te weten te komen over hun omgeving, zei Haber.

Aan de andere kant van het spectrum, modellen geïnspireerd door kunstmatige intelligentie kunnen helpen bij het oplossen van een puzzel over de fysieke lay-out van de hersenen, zei Eshed Margalit, een afgestudeerde student neurowetenschappen. Naarmate de zichtcircuits in de hersenen van baby's zich ontwikkelen, ze vormen specifieke patches - fysieke clusters van neuronen - die reageren op verschillende soorten objecten. Bijvoorbeeld, mensen en andere primaten vormen allemaal een gezichtsvlek die bijna uitsluitend actief is wanneer ze naar gezichten kijken.

Precies waarom de hersenen die plekken vormen, Margalit zei, is niet duidelijk. De hersenen hebben geen gezichtspatch nodig om gezichten te herkennen, bijvoorbeeld. Maar door voort te bouwen op AI-modellen zoals Yamins' die al taken voor objectherkenning oplossen, "We kunnen nu proberen die ruimtelijke structuur te modelleren en vragen te stellen over waarom de hersenen op deze manier zijn ingedeeld en welke voordelen het een organisme kan bieden, ' zei Margalit.

Het sluiten van de lus

Er zijn ook andere problemen die moeten worden aangepakt, met name hoe kunstmatige-intelligentiesystemen leren. Direct, AI heeft veel meer training – en veel explicietere training – nodig dan mensen om taken als objectherkenning, hoewel het onduidelijk blijft hoe mensen slagen met zo weinig gegevens.

Een tweede probleem is hoe we verder kunnen gaan dan modellen van zicht en andere sensorische systemen. "Als je eenmaal een zintuiglijke indruk van de wereld hebt, op basis daarvan beslissingen wilt nemen, " zei Yamins. "We proberen modellen te maken voor besluitvorming, leren om beslissingen te nemen en hoe je interageert tussen sensorische systemen, besluitvorming en geheugen." Yamins begint die ideeën aan te pakken met Kevin Feigelis, een afgestudeerde student natuurkunde, die AI-modellen bouwt die kunnen leren om veel verschillende soorten problemen op te lossen en waar nodig tussen taken te schakelen, iets wat maar heel weinig AI-systemen kunnen.

Op lange termijn, Yamins en de andere leden van zijn groep zeiden dat al die vorderingen zouden kunnen bijdragen aan meer capabele kunstmatige-intelligentiesystemen, net zoals eerder neurowetenschappelijk onderzoek de ontwikkeling van diep leren heeft bevorderd. "Ik denk dat mensen in kunstmatige intelligentie zich realiseren dat er bepaalde zeer goede volgende doelen zijn voor cognitief geïnspireerde kunstmatige intelligentie, "Haber zei, inclusief systemen zoals die van hem die leren door actief hun werelden te verkennen. "Mensen spelen met deze ideeën."