Science >> Wetenschap >  >> anders

Onderzoekers zeggen dat de media een generatief AI-beleid nodig hebben om desinformatie en desinformatie te helpen navigeren

Generatieve visuele AI in het wild. Credit:Digitale journalistiek (2024). DOI:10.1080/21670811.2024.2331769

Uit nieuw onderzoek naar generatieve AI-beelden blijkt dat slechts ruim een ​​derde van de ten tijde van het onderzoek ondervraagde mediaorganisaties een beeldspecifiek AI-beleid hanteert.



Voor het onderzoek, geleid door RMIT University in samenwerking met Washington State University en het QUT Digital Media Research Center, werden twintig fotoredacteuren of aanverwante functies van zestien toonaangevende publieke en commerciële mediaorganisaties in Europa, Australië en de VS geïnterviewd over hun perceptie van generatieve AI-technologieën. in de visuele journalistiek.

"Generatieve visuele AI in nieuwsorganisaties:uitdagingen, kansen, percepties en beleid" is gepubliceerd in Digital Journalism .

Hoofdonderzoeker en RMIT Senior Lecturer, Dr. TJ Thomson, zei dat, hoewel de meeste geïnterviewde medewerkers zich zorgen maakten over de impact van generatieve AI op desinformatie en desinformatie, er factoren zijn die het probleem verergeren, zoals de schaal en snelheid waarmee inhoud op sociale media wordt gedeeld. en algoritmische vooringenomenheid, buiten hun macht.

"Fotoredacteuren willen transparant zijn tegenover hun publiek wanneer generatieve AI-technologieën worden gebruikt, maar mediaorganisaties hebben geen controle over menselijk gedrag of hoe andere platforms informatie weergeven", zegt Thomson van RMIT's School of Media and Communication.

“Het publiek klikt niet altijd door om meer te weten te komen over de context en de toeschrijving van een afbeelding. We zagen dit gebeuren toen AI-afbeeldingen van de paus die Balenciaga droeg viraal gingen, waarbij velen geloofden dat het echt was omdat het een bijna fotorealistische afbeelding was die werd gedeeld zonder context.

"Foto-editors die we hebben geïnterviewd, zeiden ook dat afbeeldingen die ze ontvangen niet altijd specificeren wat voor soort beeldbewerking er is uitgevoerd, wat ertoe kan leiden dat nieuwssites AI-afbeeldingen delen zonder het te weten, wat hun geloofwaardigheid aantast."

Thomson zei dat het hebben van beleid en processen die gedetailleerd beschrijven hoe generatieve AI kan worden gebruikt in verschillende communicatievormen, incidenten van mis- en desinformatie, zoals de gewijzigde beelden van het Victoriaanse parlementslid Georgie Purcell, zou kunnen voorkomen.

"Meer mediaorganisaties moeten transparant zijn over hun beleid, zodat hun publiek er ook op kan vertrouwen dat de inhoud is gemaakt of bewerkt op de manier waarop de organisatie zegt dat het is", zei hij.

Het verbieden van generatief AI-gebruik is niet de oplossing

Uit het onderzoek bleek dat vijf van de onderzochte verkooppunten het personeel ervan weerhielden AI te gebruiken om afbeeldingen te genereren, en dat drie van deze verkooppunten alleen fotorealistische afbeeldingen blokkeerden. Anderen stonden door AI gegenereerde afbeeldingen toe als het verhaal over AI ging.

“Veel van het beleid dat ik heb gezien van mediaorganisaties over generatieve AI is algemeen en abstract. Als een mediakanaal een AI-beleid creëert, moet het alle vormen van communicatie in overweging nemen, inclusief afbeeldingen en video’s, en concretere richtlijnen bieden.” zei Thomson.

"Het volledig verbieden van generatieve AI zou waarschijnlijk een concurrentienadeel zijn en vrijwel onmogelijk af te dwingen.

"Het zou mediawerkers ook de voordelen van de technologie ontnemen, zoals het gebruik van AI om gezichten of objecten in beelden te herkennen, om metadata te verrijken en om te helpen met ondertiteling."

Thomson zei dat Australië nog steeds "achteraan in het peloton" stond als het ging om AI-regulering, met de VS en de EU voorop.

"De Australische bevolking is veel kleiner, dus onze hulpbronnen beperken ons vermogen om flexibel en adaptief te zijn", zei hij.

“Er heerst echter ook een afwachtende houding waarbij we kijken naar wat andere landen doen, zodat we hun aanpak kunnen verbeteren of navolgen.

"Ik denk dat het goed is om proactief te zijn, of dat nu van de overheid is of van een mediaorganisatie. Als we kunnen laten zien dat we proactief zijn om het internet veiliger te maken, toont dat leiderschap en kan het gesprekken rond AI vormgeven."

Algoritmische vooroordelen die het vertrouwen beïnvloeden

Uit het onderzoek bleek dat journalisten zich zorgen maakten over de manier waarop vooroordelen over algoritmen stereotypen rond geslacht, ras, seksualiteit en capaciteiten in stand zouden kunnen houden, wat zou leiden tot reputatierisico's en wantrouwen jegens de media.

"We hadden een foto-editor in ons onderzoek die een gedetailleerde prompt in een tekst-naar-beeldgenerator typte om een ​​Zuid-Aziatische vrouw te laten zien die een top en een broek droeg," zei Thomson.

"Ondanks het detailleren van de kleding van de vrouw, bleef de generator doorgaan met het creëren van een beeld van een Zuid-Aziatische vrouw die een sari draagt."

"Dit soort problemen komen voort uit een gebrek aan diversiteit in de trainingsgegevens, en het doet ons afvragen hoe representatief onze trainingsgegevens zijn, en wat kunnen we doen om na te denken over wie wordt vertegenwoordigd in ons nieuws, stockfoto's maar ook in films en films." videogames, die allemaal kunnen worden gebruikt om deze algoritmen te trainen."

Auteursrecht was ook een probleem voor foto-editors, omdat veel tekst-naar-afbeelding-generatoren niet transparant waren over waar hun bronmateriaal vandaan kwam.

Hoewel er generatieve AI-auteursrechtzaken hun weg naar de rechtbank hebben gevonden, zoals de rechtszaak van The New York Times tegen OpenAI, zei Thomson dat dit gebied nog steeds in ontwikkeling is.

"Door conservatiever te zijn en alleen AI-generatoren van derden te gebruiken die zijn getraind op bedrijfseigen gegevens of deze alleen te gebruiken voor brainstorming of onderzoek in plaats van voor publicatie, kunnen de juridische risico's worden verminderd terwijl de rechtbanken de kwestie van het auteursrecht beslechten", zei hij.

"Een andere optie is om modellen te trainen met de eigen inhoud van een organisatie, zodat ze erop kunnen vertrouwen dat ze het auteursrecht bezitten voor de volgende generaties."

Generatieve AI is niet alleen maar slecht

Ondanks zorgen over mis- en desinformatie bleek uit het onderzoek dat de meeste foto-editors veel mogelijkheden zagen voor het gebruik van generatieve AI, zoals brainstormen en het genereren van ideeën.

Velen gebruikten graag AI om illustraties te genereren die niet fotorealistisch waren, terwijl anderen graag AI gebruikten om afbeeldingen te genereren als ze niet over goede bestaande stockfoto's beschikten.

"Bestaande stockfoto's van bitcoin lijken bijvoorbeeld allemaal behoorlijk op elkaar, dus generatieve AI kan helpen een leemte op te vullen in wat ontbreekt in een catalogus met stockfoto's", aldus Thomson.

Hoewel er zorgen bestonden over het verlies van banen in de fotojournalistiek aan generatieve AI, zei een geïnterviewde redacteur dat ze zich het gebruik van AI voor eenvoudige fotografietaken konden voorstellen.

"Fotografen die in dienst zijn, zullen meer creatieve projecten moeten doen en minder taken zoals het fotograferen van iets op een witte achtergrond", aldus de geïnterviewde redacteur.

"Je zou kunnen zeggen dat die dingen ook heel gemakkelijk en simpel zijn en minder tijd in beslag nemen voor een fotograaf, maar soms bezorgen ze ook hoofdpijn."

Meer informatie: T. J. Thomson et al, Generatieve visuele AI in nieuwsorganisaties:uitdagingen, kansen, percepties en beleid, Digitale journalistiek (2024). DOI:10.1080/21670811.2024.2331769

Geleverd door RMIT University