science >> Wetenschap >  >> Elektronica

Nepnieuwsmodel in gefaseerde release, maar twee onderzoekers starten replicatie

Krediet:CC0 Publiek Domein

Niet het meest geruststellende nieuws in de wereld van technologie:het kunstmatige intelligentielab (OpenAI), mede opgericht door Elon Musk, zei dat zijn software te gemakkelijk kon worden aangepast om nepnieuws te verspreiden. "Twee afgestudeerden hebben het toch opnieuw gemaakt." Dat was Bedrade De berichtgeving op 26 augustus over een verhaal over twee recent afgestudeerde masterstudenten in de informatica die hebben vrijgegeven wat volgens hen "een re-creatie van de verborgen software van OpenAI" was, zodat iedereen deze kon downloaden en gebruiken.

Ingehouden? Waarom? Het was ingehouden vanwege zorgen over de maatschappelijke impact.

In februari, OpenAI kondigde hun model aan, GPT-2, en zei dat het was getraind om het volgende woord te voorspellen in 40 GB aan internettekst.

Ze hebben hun releasestrategie uiteengezet:"Vanwege de bezorgdheid over het gebruik van grote taalmodellen om misleidende, bevooroordeeld, of grof taalgebruik op grote schaal, we brengen alleen een veel kleinere versie van GPT-2 uit, samen met de bemonsteringscode. We geven de dataset niet vrij, trainingscode, of GPT-2 modelgewichten." In mei, zei MIT-technologie Beoordeling , "een paar maanden na het eerste debuut van GPT-2, OpenAI herzag zijn standpunt over het achterhouden van de volledige code tot wat het een "gefaseerde release" noemt.

Charanjeet Singh in Fossbytes zei dat de software taalpatronen analyseerde en kon worden gebruikt voor taken zoals chatbots en het bedenken van ongekende antwoorden, maar "de meest alarmerende zorg onder experts was het creëren van synthetische tekst."

We zullen, de twee afgestudeerden in het nieuws brachten een re-creatie van de OpenAI-software op internet, maar de twee onderzoekers, Aaron Gokaslan en Vanya Cohen, wilde nooit oceanen aftappen of de lucht laten vallen.

Tom Simoniet, wie schreef het veel geciteerde artikel in Bedrade , zeiden de twee onderzoekers, 23 en 24 jaar oud, waren er niet op uit om ravage aan te richten, maar zeiden dat hun vrijlating bedoeld was om te laten zien dat je geen elitelab hoeft te zijn dat rijk is aan dollars en doctoraten om dit soort software te maken:ze gebruikten naar schatting $ 50, 000 gratis cloud computing van Google.

Sissi Cao, Waarnemer :vergelijkbaar met het proces van OpenAI, Gokaslan en Cohen trainden hun taalsoftware met behulp van webpagina's met tekst "geschreven door mensen (door links te verzamelen die op Reddit werden gedeeld) en cloudcomputing van Google.

Wat is meer, dat de acties van de onderzoekers potentieel gevaarlijk zijn, kan worden besproken.

Simonite maakte dit punt:"Machine learning-software pikt de statistische patronen van taal op, geen echt begrip van de wereld. Tekst van zowel de originele als de wannabe-software maakt vaak onzinnige sprongen. Geen van beide kan worden gericht op het opnemen van bepaalde feiten of standpunten."

Voorbeelduitvoer werd geleverd door Gokaslan en Cohen in Medium en, zeker, het is een hoofd-krabber als men probeert om een ​​logische stroom van de ene zin naar de andere te vinden.

Dat artikel was getiteld "OpenGPT-2:We hebben GPT-2 gerepliceerd omdat jij dat ook kunt." Ze zeiden dat ze geloofden dat het vrijgeven van hun model een redelijke eerste stap was om het mogelijke toekomstige misbruik van dit soort modellen tegen te gaan. Hij zei dat ze hun codebase hebben aangepast om te voldoen aan de taalmodelleringsdoelstelling van GPT-2. "Aangezien hun model werd getraind op een even groot corpus, veel van de code en hyperparameters bleken gemakkelijk herbruikbaar."

Aangezien Open-AI hun grootste model op dat moment niet had uitgebracht [de datum van zijn publicatie was 22 augustus], hij zei dat de twee onderzoekers probeerden hun 1.5B-model te repliceren om anderen in staat te stellen voort te bouwen op hun vooraf getrainde model en het verder te verbeteren.

Snel vooruit naar 29 augustus. Waar blijft de GPT-2 van OpenAI? Karen Hao MIT Technology Review zei dat het beleidsteam een ​​paper heeft gepubliceerd, ingediend op 24 aug. die nu op arXiv staat, en "Daarnaast het lab heeft een versie van het model uitgebracht, bekend als GPT-2, dat is de helft van de volledige, die nog steeds niet is vrijgegeven."

Hao's artikel was bijzonder nuttig om dit neptekstdrama te begrijpen, aangezien ze rapporteerde over hoe de gefaseerde release-aanpak buiten OpenAI werd ontvangen.

Een deep learning engineer bij Nvidia zei dat hij een gefaseerde release niet bijzonder nuttig vond in dit geval, omdat het werk gemakkelijk repliceerbaar was. "Maar het kan nuttig zijn omdat het een precedent schept voor toekomstige projecten. Mensen zullen gefaseerde release als een alternatieve optie zien."

Ze citeerde ook Oren Etzioni, de CEO van het Allen Instituut voor Kunstmatige Intelligentie. "Ik juich hun voornemen toe om een ​​doordachte, geleidelijk releaseproces voor AI-technologie, maar vraag me af of alle fanfare gerechtvaardigd was."

© 2019 Wetenschap X Netwerk