science >> Wetenschap >  >> Elektronica

Nepnieuws via OpenAI:welsprekend onsamenhangend?

Krediet:CC0 Publiek Domein

OpenAI's tekstgenerator, machine learning-aangedreven - zo krachtig dat het te gevaarlijk werd geacht om vrij te geven aan het publiek, heeft, Raad eens, vrijgelaten.

OpenAI publiceerde een blogpost waarin ze haar beslissing aankondigde om het algoritme volledig vrij te geven, omdat het "tot nu toe geen sterk bewijs van misbruik heeft gezien".

We zullen, dat was een ommekeer.

Het was pas in februari toen OpenAI sprak over een taalmodel genaamd GPT-2 dat alinea's tekst genereert.

Engadget :"De AI, GPT-2, oorspronkelijk ontworpen om vragen te beantwoorden, verhalen samenvatten en teksten vertalen. Maar onderzoekers begonnen te vrezen dat het zou kunnen worden gebruikt om grote hoeveelheden verkeerde informatie naar buiten te pompen."

Tom McKay in Gizmodo merkte op hoe de tekstgenerator "getraind was op ongeveer 40 gigabyte aan gegevens die van acht miljoen websites waren gehaald" en goed was in het genereren van tekst vanaf een bepaalde prompt.

De rand 's James Vincent sprak er ook over. "Het systeem is getraind op acht miljoen tekstdocumenten die van internet zijn geschraapt en reageert op tekstfragmenten die door gebruikers zijn aangeleverd. Geef het een valse kop, bijvoorbeeld, en het zal een nieuwsbericht schrijven; geef het de eerste regel van een gedicht en het levert een heel vers op."

Dus waarom is hun algoritme volledig vrijgegeven? Heeft het publiek niet genoeg om zich zorgen te maken over nepnieuws, valse kritiek, politieke propaganda?

Daarnaast, de blogpost van februari nam wat zo'n indrukwekkende weg leek te zijn om te laten zien dat ethische overwegingen in de wereld top of mind waren.

"Ons model, genaamd GPT-2 (een opvolger van GPT), werd eenvoudigweg getraind om het volgende woord te voorspellen in 40 GB internettekst. Vanwege onze bezorgdheid over kwaadaardige toepassingen van de technologie, we geven het getrainde model niet vrij. Als experiment in verantwoorde openbaarmaking, we geven in plaats daarvan een veel kleiner model vrij waarmee onderzoekers kunnen experimenteren, evenals een technisch document."

Katyanna Quach in Het register leverde een tijdlijn van de OpenAI-tech-optredens in fasen. "Het in San Francisco gevestigde onderzoekslaboratorium heeft de wateren voorlopig getest door steeds grotere modellen vrij te geven, beginnend met slechts een paar honderd miljoen parameters.

"De kleinste versie bevatte 117 miljoen parameters, de tweede had 345 miljoen parameters, de derde bestond uit 774 miljoen parameters, en de grootste, dinsdag vrijgelaten, heeft de volledige 1,5 miljard parameters. Hoe meer parameters, hoe krachtiger en capabeler het model, in het algemeen."

Dus, wat overtuigde hen om de afrit van de hoofdweg te nemen? Welke reden hadden ze om te denken dat het nu een veiligere tijd was dan ooit tevoren? Wat is er gebeurd met het standpunt dat het te gevaarlijk was om te delen?

"We hebben tot nu toe geen sterk bewijs van misbruik gezien, " zeiden ze in hun bericht van 5 november. "Hoewel we enige discussie hebben gezien over het potentieel van GPT-2 om operaties met een hoog volume / een laag rendement zoals spam en phishing te argumenteren, we hebben geen bewijs gezien van het schrijven van code, documentatie, of gevallen van misbruik."

In de tussentijd, James Vincent in De rand waagde het om de mogelijkheid te luchten dat dit 'gevaarlijke' idee precies dat was, een idee dat, wat hun nepnieuwsmodel betreft, in de eerste plaats misschien niet gevraagd.

Er was bezorgdheid dat gemakkelijke toegang tot een dergelijke AI-tool zou kunnen voldoen aan de plannen van kwaadwillende actoren, en de verantwoorde manier om hiermee om te gaan was om het model in beperkte mate uit te brengen. Een goede aanpak? Of stond het verder onderzoek in de weg? "

Je kunt het nu uitproberen op een site, waarop het GPT-2-model op ware grootte draait, genaamd 1558M. De webinterface is gebouwd door Adam King met behulp van de volledige GPT-2-release van OpenAI, zei Het register .

Deze schrijver probeerde te onderzoeken wat het kan doen met een beginzin 'Baby's kunnen de afwas doen'. Wat volgde was een gekke mengelmoes van logica en onderwerpsprongen. Niettemin droegen de zinnen een respectabele grammatica, stem en stijl. Enkele fragmenten:

"En dus, het idee dat kinderen niet in staat zijn om een ​​wasmachine te gebruiken is belachelijk.

"Wat betreft het idee dat je kind een gootsteenkraan is, dat is een idee waar ik persoonlijk niet tegen kan. Het is bekend dat ik een gootsteenkraan gebruik tijdens het koken. Ik kan afwassen in een gootsteen.

"Als je kind op je schoot zit en je het washandje vasthoudt en het water gebruikt om de afwas te doen, je doet waarschijnlijk niets."

James Vincent was een schot in de roos met een beoordeling van drie woorden:'griezelig overtuigend schrijven'.

Quach maakte ook een punt dat de moeite waard is om te herhalen. "Zo nu en dan, het spuugt zinnen uit die verrassend goed zijn, maar terwijl het tekst blijft produceren, het wordt onsamenhangend."

Quach had een verfrissende reden waarom OpenAI heeft bijgedragen aan de mensheid. "We hebben nog een laatste gedachte over dit fascinerende AI-onderzoek:het legt in ieder geval een lat voor menselijke schrijvers. Als je nieuws of hoofdartikelen wilt schrijven, Blog berichten, marketing e-mails, en dergelijke, weet dat je nu beter moet zijn dan de semi-coherente output van GPT-2. Anders, mensen kunnen net zo goed de output van een bot lezen dan die van jou."

© 2019 Wetenschap X Netwerk