Wetenschap
Bewegingssensor 'cameravallen' maken onopvallend foto's van dieren in hun natuurlijke omgeving, vaak beelden opleveren die anders niet waarneembaar zijn. Het kunstmatige intelligentiesysteem verwerkt dergelijke beelden automatisch, hier wordt dit correct gerapporteerd als een afbeelding van twee staande impala's. Krediet:momentopname Serengeti
Een nieuwe krant in de Proceedings van de National Academy of Sciences (PNAS) rapporteert hoe een geavanceerde kunstmatige-intelligentietechniek genaamd deep learning automatisch kan identificeren, dieren tellen en beschrijven in hun natuurlijke habitat.
Foto's die automatisch worden verzameld door camera's met bewegingssensoren, kunnen vervolgens automatisch worden beschreven door diepe neurale netwerken. Het resultaat is een systeem dat de identificatie van dieren kan automatiseren voor maximaal 99,3 procent van de afbeeldingen, terwijl het nog steeds presteert met dezelfde nauwkeurigheid van 96,6 procent van crowdsourced-teams van menselijke vrijwilligers.
"Deze technologie stelt ons in staat nauwkeurig, onopvallend en goedkoop gegevens over dieren in het wild verzamelen, die zou kunnen helpen bij het katalyseren van de transformatie van vele gebieden van ecologie, biologie in het wild, zoölogie, natuurbeschermingsbiologie en diergedrag in 'big data'-wetenschappen. Dit zal ons vermogen om wilde dieren en kostbare ecosystemen te bestuderen en te behouden drastisch verbeteren, " zegt Jeff Clune, de senior auteur van het artikel. Hij is de Harris Associate Professor aan de University of Wyoming en senior onderzoeksmanager bij Uber's Artificial Intelligence Labs.
Het papier is geschreven door Clune; zijn doctoraat student Mohammad Sadegh Norouzzadeh; zijn voormalige Ph.D. student Anh Nguyen (nu aan de Auburn University); Margaret Kosmala (Harvard University); Ali Swanson (Universiteit van Oxford); en Meredith Palmer en Craig Packer (beiden van de Universiteit van Minnesota).
Diepe neurale netwerken zijn een vorm van computationele intelligentie die losjes is geïnspireerd op hoe dierlijke hersenen de wereld zien en begrijpen. Ze hebben enorme hoeveelheden trainingsgegevens nodig om goed te werken, en de gegevens moeten nauwkeurig worden geëtiketteerd (bijv. elke afbeelding correct wordt getagd met welke diersoort aanwezig is, hoeveel het er zijn, enzovoort.).
Deze studie heeft de nodige gegevens verkregen van Snapshot Serengeti, een burgerwetenschappelijk project op het http://www.zooniverse.org platform. Snapshot Serengeti heeft in Tanzania een groot aantal "cameravallen" (bewegingssensorcamera's) ingezet die miljoenen beelden van dieren in hun natuurlijke habitat verzamelen, zoals leeuwen, luipaarden, cheeta's en olifanten. De informatie op deze foto's is pas bruikbaar als deze is omgezet in tekst en cijfers. Voor jaren, de beste methode om dergelijke informatie te extraheren was om crowdsourced teams van menselijke vrijwilligers te vragen om elke afbeelding handmatig te labelen. De vandaag gepubliceerde studie maakte gebruik van 3,2 miljoen gelabelde afbeeldingen die op deze manier zijn geproduceerd door meer dan 50, 000 menselijke vrijwilligers over meerdere jaren.
"Toen ik Jeff Clune vertelde dat we 3,2 miljoen gelabelde afbeeldingen hadden, hij stopte in zijn sporen, " zegt Packer, die het Snapshot Serengeti-project leidt. "We wilden testen of we machine learning konden gebruiken om het werk van menselijke vrijwilligers te automatiseren. Onze burgerwetenschappers hebben fenomenaal werk verricht, maar we moesten het proces versnellen om steeds grotere hoeveelheden gegevens te verwerken. Het deep learning-algoritme is geweldig en overtrof mijn verwachtingen ver. Dit is een game changer voor de ecologie van dieren in het wild."
Swanson, die Snapshot Serengeti heeft opgericht, voegt toe:"Er zijn honderden cameravalprojecten in de wereld, en zeer weinigen van hen zijn in staat grote legers menselijke vrijwilligers te rekruteren om hun gegevens te extraheren. Dat betekent dat veel van de kennis in deze belangrijke datasets onbenut blijft. Hoewel projecten steeds vaker een beroep doen op burgerwetenschap voor beeldclassificatie, we beginnen te zien dat het steeds langer duurt om elke batch afbeeldingen te labelen naarmate de vraag naar vrijwilligers groeit. Wij geloven dat deep learning de sleutel zal zijn om het knelpunt voor cameravalprojecten te verminderen:de inspanning om afbeeldingen om te zetten in bruikbare gegevens."
"Het kunstmatige intelligentiesysteem vertelt je niet alleen welke van de 48 verschillende diersoorten er aanwezig zijn, maar het vertelt je ook hoeveel het er zijn en wat ze doen. Het zal je vertellen of ze eten, slapen, als er baby's aanwezig zijn, enzovoort., " voegt Kosmala toe, nog een Snapshot Serengeti-leider. "We schatten dat de pijplijn van deep learning-technologie die we beschrijven meer dan acht jaar menselijke etiketteringsinspanningen zou besparen voor elke extra 3 miljoen afbeeldingen. Dat is veel waardevolle vrijwilligerstijd die opnieuw kan worden ingezet om andere projecten te helpen."
Eerste auteur Sadegh Norouzzadeh wijst erop dat "Deep learning nog steeds snel verbetert, en we verwachten dat de prestaties de komende jaren alleen maar beter zullen worden. Hier, we wilden de waarde van de technologie demonstreren voor de natuurecologische gemeenschap, maar we verwachten dat naarmate meer mensen onderzoeken hoe ze deep learning voor deze applicatie kunnen verbeteren en hun datasets publiceren, alles is mogelijk. Het is opwindend om na te denken over alle verschillende manieren waarop deze technologie kan helpen bij onze belangrijke wetenschappelijke en natuurbehoudmissies."
De krant die vandaag verschijnt in PNAS is getiteld, "Automatisch identificeren, tellen, en het beschrijven van wilde dieren in camera-valbeelden met diepgaand leren."
Wetenschap © https://nl.scienceaq.com