science >> Wetenschap >  >> Elektronica

OpenAIs GPT-2-algoritme is goed in het breien van nepnieuws

Krediet:CC0 Publiek Domein

Nep. Gevaarlijk. Eng. Te goed. Als de krantenkoppen met zulke uitspraken zwemmen, dan vermoed je, correct, dat je in het land van kunstmatige intelligentie bent, waar iemand weer een ander AI-model heeft bedacht.

Dus, dit is , GPT-2, een algoritme en, of het je nu zorgen maakt of verwondert, "Het blinkt uit in een taak die bekend staat als taalmodellering, " zei De rand , "die het vermogen van een programma test om het volgende woord in een bepaalde zin te voorspellen."

Afhankelijk van hoe je het bekijkt, je kunt de schuld geven, of feliciteer, een team van het in Californië gevestigde OpenAI dat GPT-2 heeft gemaakt. Hun taalmodelleringsprogramma heeft een overtuigend essay geschreven over een onderwerp waarmee ze het niet eens waren.

Hoe ze het deden:ze gaven het tekstprompts. Het was in staat om verzonnen zinnen en alinea's af te maken. Hun model is getraind om het volgende woord in internettekst te voorspellen, zei de OpenAI-blogpost.

David Luan, VP van engineering bij het laboratorium in Californië, doorgegeven wat er is gebeurd De rand . Het team besloot het te vragen "om een ​​punt te beargumenteren waarvan zij dachten dat het contra-intuïtief was. In dit geval:waarom recycling slecht is voor de wereld." Het resultaat:een leerzame, goed onderbouwd stuk, "iets dat je had kunnen indienen bij de Amerikaanse SAT en een goede score had kunnen behalen, " zei Luan.

Daarin ligt de reden waarom sommige mensen zich zorgen maken over Armageddon met robots, 's nachts misschien niet zo goed slapen. Geef het een valse kop, zei James Vincent in De rand , en het zal gaan om de rest van het artikel te schrijven.

"We begonnen het te testen, en ontdekte al snel dat het mogelijk is om vrij gemakkelijk kwaadaardige inhoud te genereren, " zei Jack Clark, beleidsdirecteur bij OpenAI, in MIT Technology Review . Valse citaten? Geen probleem. Valse statistieken? Gedaan.

Vincent voegde toe, er was nog een andere reden waarom GPT-2 in de schijnwerpers kwam te staan. Het stond ook bekend om zijn flexibiliteit. Het schrijven van nep-essays was niet de enige mogelijkheid; het kan ook een aantal andere taken uitvoeren:"tekst vertalen van de ene taal naar de andere, lange artikelen samenvatten, en het beantwoorden van trivia-vragen, " zei Vincentius.

Globaal genomen, de OpenAI-blog die donderdag werd gepost, vatte samen wat ze hebben gedaan. Let op hun laatste paar woorden, zonder taakspecifieke training:

"We hebben een grootschalig taalmodel zonder toezicht getraind dat coherente tekstparagrafen genereert, behaalt state-of-the-art prestaties op vele benchmarks voor taalmodellering, en voert rudimentair begrijpend lezen uit, machine vertaling, vraag beantwoorden, en samenvatting - allemaal zonder taakspecifieke training."

Dit is de "zero-shot"-sector van AI-onderzoek.

"Ons model is niet getraind op gegevens die specifiek zijn voor een van deze taken en wordt er alleen op geëvalueerd als een laatste test; dit staat bekend als de 'zero-shot'-instelling. GPT-2 presteert beter dan modellen die zijn getraind op domeinspecifieke datasets (bijv. Wikipedia, nieuws, boeken) wanneer geëvalueerd op dezelfde datasets." Het programma herkent patronen in de gegevens die het krijgt; Knight schreef dat "in tegenstelling tot de meeste taalalgoritmen, het OpenAI-programma vereist geen gelabelde of samengestelde tekst."

Het team zei dat hun systeem een ​​record vestigde voor prestaties op zogenaamde Winograd-schema's, een moeilijke begrijpend lezen taak; behaalt bijna menselijke prestaties op de kinderboekentest, nog een controle op begrijpend lezen; en genereert zijn eigen tekst, inclusief zeer overtuigende nieuwsartikelen en Amazon-recensies, volgens Vox .

Bloomberg wendde zich tot Sam Bowman, een computerwetenschapper aan de New York University die gespecialiseerd is in natuurlijke taalverwerking. Bowman maakte geen deel uit van het OpenAI-project, heb er net over geïnformeerd. ""Het is in staat om dingen te doen die kwalitatief veel geavanceerder zijn dan alles wat we eerder hebben gezien."

Uiteindelijk, wat hebben we hier? Hebben ze een doorbraak of een monster gecreëerd?

Door wat perspectief toe te voegen, Zal Ridder in MIT Technology Review zei dat dergelijke technologie nuttige toepassingen zou kunnen hebben, zoals het samenvatten van tekst of het verbeteren van de gespreksvaardigheden van chatbots. Ook, een expert op het gebied van natuurlijke taalverwerking en de hoofdwetenschapper van Salesforce erkenden dit OpenAI-werk als een voorbeeld van een meer algemeen taalleersysteem. Richard Socher, de expert, becommentarieerd over mogelijke misleiding en verkeerde informatie. "Je hebt geen AI nodig om nepnieuws te maken, " zei hij. "Mensen kunnen het gemakkelijk doen :)"

Niettemin, "OpenAI gaat voorzichtig te werk met de onthulling van GPT-2, ", schreef Vincent. "In tegenstelling tot de meeste belangrijke onderzoeksmijlpalen in AI, het lab zal niet de dataset delen die het heeft gebruikt voor het trainen van het algoritme of alle code waarop het draait (hoewel het tijdelijke toegang tot het algoritme heeft gegeven aan een aantal mediapublicaties, inclusief De rand )."

Dat meldt het team in hun blogpost. "Vanwege onze bezorgdheid over kwaadaardige toepassingen van de technologie, we geven het getrainde model niet vrij. Als experiment in verantwoorde openbaarmaking, we geven in plaats daarvan een veel kleiner model vrij waarmee onderzoekers kunnen experimenteren, evenals een technisch document."

specifiek, ze zeiden dat ze alleen een veel kleinere versie van GPT-2 uitbrachten, samen met de bemonsteringscode. "We geven de dataset niet vrij, trainingscode, of GPT-2 modelgewichten."

OpenAI praat liever over gevaren voordat ze zich voordoen. Jack Clark, beleidsdirecteur bij OpenAI sprak over taalmodelleringsalgoritmen zoals GPT-2. "Onze hypothese is dat het een betere en veiligere wereld zou kunnen zijn als je over [deze gevaren] praat voordat ze aankomen, " hij zei.

GPT-2 is getraind op een dataset van miljoenen webpagina's. Dave Lee, Technologieverslaggever in Noord-Amerika, BBC, voegde de "onbewaakte" aard toe van wat ze creëerden, zodat het niet opnieuw hoefde te worden bijgeschoold om naar een ander onderwerp te gaan.

Lee, terwijl ze erkenden dat hun werk indrukwekkend realistisch van toon was als het goed werkte, merkte ook tekortkomingen op.

"De AI genereert het verhaal woord voor woord. De resulterende tekst is vaak coherent, maar zelden waarheidsgetrouw - alle citaten en toeschrijvingen zijn verzonnen. De zinnen zijn gebaseerd op informatie die al online is gepubliceerd, maar de samenstelling van die informatie is bedoeld om uniek te zijn. Soms spuugt het systeem tekstpassages uit die structureel niet logisch zijn, of lachwekkende onnauwkeurigheden bevatten."

Lachwekkend nu, maar zal de AI in de loop van de tijd worden verbeterd? Volgens Ridder, Clark zei dat het niet lang meer zou duren voordat de nepverhalen die door de AI werden geproduceerd, overtuigender waren. "Het is heel duidelijk dat als deze technologie volwassen wordt - en ik geef het een of twee jaar - het kan worden gebruikt voor desinformatie of propaganda, " zei Clark, en "We proberen dit voor te zijn."

© 2019 Wetenschap X Netwerk