Wetenschap
Niet-gecureerde set afbeeldingen geproduceerd door de op stijl gebaseerde generator (config F) met de FFHQ-dataset. Krediet:arXiv:1812.04948 [cs.NE]
Een nieuw soort Generative Adversarial Network-aanpak zorgt ervoor dat technologie-waarnemers hun hoofd krabben:hoe kunnen afbeeldingen nep zijn en er toch zo echt uitzien?
"We kwamen met een nieuwe generator die automatisch leert om verschillende aspecten van de afbeeldingen te scheiden zonder enig menselijk toezicht, " zeiden de onderzoekers in een video. Ze zeiden in hun paper:"De nieuwe architectuur leidt tot een automatisch aangeleerde, ongecontroleerde scheiding van attributen op hoog niveau."
Nepfoto's er echt uit laten zien is een artistieke inspanning die nauwelijks nieuw is, maar deze drie onderzoekers hebben de inspanning naar een hoger niveau getild.
Ze beschreven hun techniek in hun papier, "Een op stijl gebaseerde generatorarchitectuur voor generatieve vijandige netwerken." Het papier staat op de arXiv en heeft veel aandacht getrokken.
Stephen Johnson in Grote Denken zei dat de resultaten "behoorlijk verrassend" waren. Zal Ridder in MIT Technology Review zei dat waar we naar kijken "verbluffend, bijna griezelig realisme."
De onderzoekers, Tero Karras, Samuli Laine, en Timo Aila, zijn van Nvidia. Hun aanpak is gericht op het bouwen van een generatief netwerk van tegenstanders, of GAN, waar het leren plaatsvindt om geheel nieuwe beelden te genereren die nabootsen het uiterlijk van echte foto's.
De auteurs zeiden dat alle afbeeldingen in deze video door hun generator zijn geproduceerd. "Het zijn geen foto's van echte mensen."
hun papier, " zei Ridder, liet zien hoe met de aanpak kan worden gespeeld, en remix elementen zoals race, geslacht, of zelfs sproeten.
De magische saus is hun op stijl gebaseerde generator. Grote Denken legde dit uit als een aangepaste versie van de conventionele technologie die wordt gebruikt om automatisch afbeeldingen te genereren.
Hun technologie knoeit met je hoofd en lacht als laatste (of woord, hoe je het ook bekijkt).
Jij als mens denkt 'beelden'. de generator, echter, denkt "stijlcollectie."
Het effect van stijlen in de generator visualiseren door de stijlen die door de ene latente code (bron) worden geproduceerd, een subset van de stijlen van een andere (bestemming) te laten overschrijven. Krediet:arXiv:1812.04948 [cs.NE]
Elke stijl regelt effecten op een bepaalde schaal. Er zijn grove stijlen, middelste stijlen, fijne stijlen. (Grove stijlen verwijzen naar pose, haar, gezichtsvorm; middelste stijlen verwijzen naar gelaatstrekken; ogen. Fijne stijlen verwijzen naar het kleurenschema.)
wil ridder, In de tussentijd, maakte enkele opmerkingen over GAN's:"GAN's gebruiken twee duellerende neurale netwerken om een computer te trainen om de aard van een dataset goed genoeg te leren om overtuigende vervalsingen te genereren. Wanneer toegepast op afbeeldingen, dit biedt een manier om vaak zeer realistische fakery te genereren."
Johnson gaf een achtergrond van het GAN-concept:
"In 2014, een onderzoeker genaamd Ian Goodfellow en zijn collega's schreven een paper waarin ze een nieuw machine learning-concept schetsten, genaamd generatieve vijandige netwerken. Het idee, in vereenvoudigde termen, houdt in dat twee neurale netwerken tegen elkaar worden opgezet. Men fungeert als een generator die kijkt naar, zeggen, foto's van honden en doet dan zijn best om een beeld te creëren van hoe hij denkt dat een hond eruit ziet. Het andere netwerk fungeert als een discriminator die nepbeelden van echte probeert te onderscheiden.
"Aanvankelijk, de generator kan enkele afbeeldingen produceren die niet op honden lijken, dus de discriminator schiet ze neer. Maar de generator weet nu een beetje waar het mis is gegaan, dus de volgende afbeelding die het maakt, is iets beter. Dit proces gaat door totdat, in theorie, de generator creëert een goed beeld van een hond."
Nvidia's team voegde principes voor stijloverdracht toe aan de GAN-mix.
Devin Coldewey in TechCrunch :"Auto's, katten, landschappen - al deze dingen passen min of meer in hetzelfde paradigma van kleine, middelgrote en grote kenmerken die afzonderlijk kunnen worden geïsoleerd en gereproduceerd."
Technisch gezien is hun werk is geprezen om indrukwekkende resultaten in afbeeldingen van mensen die er echt uitzien. Vanuit een populaire opvatting, aangescherpt door geruchten over nepnieuws, de vooruitgang wordt gezien als gevaarlijk. "De mogelijkheid om realistische kunstmatige beelden te genereren, vaak deepfakes genoemd wanneer afbeeldingen bedoeld zijn om eruit te zien als herkenbare mensen, heeft de afgelopen jaren tot bezorgdheid geleid, " zei Johnson.
Tech-watching-sitepagina's stonden vol met opmerkingen over hoe "griezelig" dit was, en sommige opmerkingen waren gewoon vragen:"Waarom doen we dit?" "Wie betaalt het?" "Als we geen regelgevende grenzen creëren, Ik denk dat de volgende grote strijd in de menselijke geschiedenis zal worden uitgevochten (en mogelijk verloren) tegen de AI die we creëren, " zei een reactie.
Niettemin, niet alle opmerkingen weerspiegelden onbehagen. Dit is een technologische vooruitgang en sommige opmerkingen wezen erop dat toepassingen in bepaalde sectoren nuttig kunnen zijn. Ontwerpers, makers van reclamebureaus, en zelfs makers van videogames zouden deze technologie een stap voorwaarts kunnen maken.
"Deze AI-gegenereerde gezichten beloven een nieuwe generatie fotorealistische mensen in videogames en films in te luiden zonder de noodzaak van menselijke acteurs of figuranten, " zei HotHardware .
© 2018 Wetenschap X Netwerk
Wetenschap © https://nl.scienceaq.com