Wetenschap
MIT-onderzoekers trainen een paar generatieve vijandige netwerken, of GAN's, om het land na te bootsen, zee, en wolkentexturen gezien in satellietbeelden met als doel om uiteindelijk de echte zeespiegelstijging te visualiseren. Het is een van de vele onderzoeksprojecten op het gebied van kunstmatige intelligentie die mogelijk zijn gemaakt door door IBM en Google gedoneerde cloudcredits. Krediet:Brandon Leshchinskiy
Neurale netwerken hebben onderzoekers een krachtig hulpmiddel gegeven om in de toekomst te kijken en voorspellingen te doen. Maar een nadeel is hun onverzadigbare behoefte aan data en rekenkracht ("compute") om al die informatie te verwerken. Bij het MIT, De vraag naar computers is naar schatting vijf keer groter dan wat het Instituut kan bieden. Om de crunch te verlichten, industrie is tussenbeide gekomen. Een onlangs door IBM gedoneerde supercomputer van $ 11,6 miljoen komt dit najaar online, en in het afgelopen jaar zowel IBM als Google hebben cloudcredits verstrekt aan MIT Quest for Intelligence voor distributie over de campus. Hieronder worden vier projecten uitgelicht die mogelijk zijn gemaakt door clouddonaties van IBM en Google.
Kleiner, sneller, slimmere neurale netwerken
Om een kat op een foto te herkennen, een deep learning-model moet mogelijk miljoenen foto's zien voordat zijn kunstmatige neuronen "leren" een kat te identificeren. Het proces is rekenintensief en brengt hoge milieukosten met zich mee, zoals nieuw onderzoek dat probeert de koolstofvoetafdruk van kunstmatige intelligentie (AI) te meten, heeft aangetoond.
Maar misschien is er een efficiëntere manier. Nieuw MIT-onderzoek toont aan dat er maar een fractie van de grootte van modellen nodig is. "Als je een groot netwerk traint, is er een klein netwerk dat alles had kunnen doen, " zegt Jonathan Frankle, een afgestudeerde student in MIT's Department of Electrical Engineering and Computer Science (EECS).
Met co-auteur van de studie en EECS-professor Michael Carbin, Frankle schat dat een neuraal netwerk zou kunnen rondkomen met een tiende van het aantal verbindingen als het juiste subnetwerk in het begin wordt gevonden. Normaal gesproken, neurale netwerken worden bijgesneden na het trainingsproces, met irrelevante verbindingen dan verwijderd. Waarom niet het kleine model trainen om mee te beginnen, vroeg Frankle zich af?
Experimenteren met een netwerk van twee neuronen op zijn laptop, Frankle kreeg bemoedigende resultaten en stapte over op grotere beelddatasets zoals MNIST en CIFAR-10, GPU's lenen waar hij kon. Eindelijk, via IBM Cloud, hij zorgde voor voldoende rekenkracht om een echt ResNet-model te trainen. "Alles wat ik eerder had gedaan waren speelgoedexperimenten, " zegt hij. "Ik was eindelijk in staat om tientallen verschillende instellingen uit te voeren om er zeker van te zijn dat ik de beweringen in onze krant kon maken."
Frankle sprak vanuit de kantoren van Facebook, waar hij de zomer werkte om ideeën te onderzoeken die naar voren waren gebracht door zijn Lottery Ticket Hypothesis-paper, een van de twee gekozen voor een prijs voor beste papier op de International Conference on Learning Representations van dit jaar. Potentiële toepassingen voor het werk gaan verder dan beeldclassificatie, Frankle zegt, en omvatten versterkingsleren en natuurlijke taalverwerkingsmodellen. Nu al, onderzoekers van Facebook AI Research, Princeton Universiteit, en Uber hebben vervolgonderzoeken gepubliceerd.
"Wat ik zo leuk vind aan neurale netwerken, is dat we de basis nog niet eens hebben gelegd, " zegt Freek, die onlangs is overgestapt van het bestuderen van cryptografie en technologiebeleid naar AI. "We begrijpen echt niet hoe het leert, waar het goed is en waar het faalt. Dit is natuurkunde 1, 000 jaar voor Newton."
Onderscheidend feit van nepnieuws
Netwerkplatforms zoals Facebook en Twitter hebben het gemakkelijker dan ooit gemaakt om kwaliteitsnieuws te vinden. Maar te vaak, echt nieuws wordt overstemd door misleidende of ronduit valse informatie die online wordt geplaatst. Verwarring over een recente video van de Amerikaanse House Speaker Nancy Pelosi die werd bewerkt om haar dronken te laten klinken, is slechts het nieuwste voorbeeld van de bedreiging die verkeerde informatie en nepnieuws vormen voor de democratie.
"Je kunt nu zo ongeveer alles op internet zetten, en sommige mensen zullen het geloven, " zegt Moin Nadeem, een senior en EECS major aan het MIT.
Als technologie het probleem heeft veroorzaakt, het kan ook helpen het te repareren. Dat was de reden van Nadeem om een superUROP-project te kiezen dat gericht was op het bouwen van een geautomatiseerd systeem om nep en misleidend nieuws te bestrijden. Werken in het lab van James Glass, een onderzoeker bij MIT's Computer Science and Artificial Intelligence Laboratory, en onder toezicht van Mitra Mohtarami, Nadeem hielp een taalmodel te trainen om beweringen te controleren door Wikipedia en drie soorten nieuwsbronnen te doorzoeken die door journalisten als kwalitatief hoogstaand werden beoordeeld, gemengde kwaliteit of lage kwaliteit.
Om een claim te verifiëren, het model meet hoe nauw de bronnen overeenkomen, met hogere overeenstemmingsscores die aangeven dat de bewering waarschijnlijk waar is. Een hoge onenigheidsscore voor een claim als, "ISIS infiltreert in de Verenigde Staten, " is een sterke indicator van nepnieuws. Een nadeel van deze methode, hij zegt, is dat het model niet zozeer de onafhankelijke waarheid identificeert als wel beschrijft wat de meeste mensen denken dat waar is.
Met de hulp van Google Cloud Platform, Nadeem voerde experimenten uit en bouwde een interactieve website waarmee gebruikers direct de juistheid van een claim kunnen beoordelen. Hij en zijn co-auteurs presenteerden hun resultaten op de conferentie van de North American Association of Computational Linguistics (NAACL) in juni en breiden het werk verder uit.
"Vroeger was het gezegde dat zien is geloven, " zegt Nadeem, in deze video over zijn werk. "Maar we betreden een wereld waar dat niet waar is. Als mensen hun ogen en oren niet kunnen vertrouwen, wordt het een kwestie van wat kunnen we vertrouwen?"
Een opwarmend klimaat visualiseren
Van stijgende zeeën tot toenemende droogte, de effecten van klimaatverandering zijn nu al voelbaar. Over een paar decennia, de wereld wordt warmer, droger, en meer onvoorspelbare plaats. Brandon Leshchinskiy, een afgestudeerde student aan het MIT's Department of Aeronautics and Astronautics (AeroAstro), experimenteert met generatieve vijandige netwerken, of GAN's, om je voor te stellen hoe de aarde er dan uit zal zien.
GAN's produceren hyperrealistische beelden door het ene neuraal netwerk tegen het andere op te zetten. Het eerste netwerk leert de onderliggende structuur van een reeks afbeeldingen en probeert deze te reproduceren, terwijl de tweede beslist welke afbeeldingen er ongeloofwaardig uitzien en het eerste netwerk vertelt om het opnieuw te proberen.
Geïnspireerd door onderzoekers die GAN's gebruikten om projecties van zeespiegelstijging te visualiseren op basis van straatbeelden, Leshchinskiy wilde zien of satellietbeelden op dezelfde manier klimaatprojecties konden personaliseren. Met zijn adviseur AeroAstro-professor Dava Newman, Leshchinskiy gebruikt momenteel gratis IBM Cloud-credits om een paar GAN's te trainen op afbeeldingen van de oostelijke kustlijn van de VS met de bijbehorende hoogtepunten. Het doel is om te visualiseren hoe de zeespiegelstijgingsprojecties voor 2050 de kustlijn opnieuw zullen tekenen. Als het project werkt, Leshinskiy hoopt andere NASA-datasets te gebruiken om toekomstige verzuring van de oceaan en veranderingen in de overvloed aan fytoplankton voor te stellen.
"We zijn voorbij het punt van mitigatie, ", zegt hij. "Het visualiseren van hoe de wereld er over drie decennia uit zal zien, kan ons helpen ons aan te passen aan de klimaatverandering."
Atleten identificeren aan de hand van een paar gebaren
Een paar bewegingen op het veld of de baan zijn voldoende voor een computervisiemodel om individuele atleten te identificeren. Dat is volgens voorlopig onderzoek door een team onder leiding van Katherine Gallagher, een onderzoeker bij MIT Quest for Intelligence.
Het team trainde computervisiemodellen op video-opnames van tenniswedstrijden en voetbal- en basketbalwedstrijden en ontdekte dat de modellen individuele spelers in slechts een paar frames konden herkennen vanaf belangrijke punten op hun lichaam, waardoor een ruwe schets van hun skelet werd verkregen.
Het team gebruikte een Google Cloud API om de videogegevens te verwerken, en vergeleken de prestaties van hun modellen met modellen die zijn getraind op het AI-platform van Google Cloud. "Deze pose-informatie is zo onderscheidend dat onze modellen spelers bijna net zo goed kunnen identificeren als modellen met veel meer informatie, zoals haarkleur en kleding, " ze zegt.
Hun resultaten zijn relevant voor geautomatiseerde spelersidentificatie in sportanalysesystemen, en ze zouden een basis kunnen vormen voor verder onderzoek naar het afleiden van vermoeidheid van spelers om te anticiperen wanneer spelers moeten worden uitgewisseld. Geautomatiseerde posedetectie kan atleten ook helpen hun techniek te verfijnen door hen in staat te stellen de precieze bewegingen te isoleren die horen bij de deskundige drive van een golfer of de winnende swing van een tennisser.
Dit verhaal is opnieuw gepubliceerd met dank aan MIT News (web.mit.edu/newsoffice/), een populaire site met nieuws over MIT-onderzoek, innovatie en onderwijs.
Wetenschap © https://nl.scienceaq.com