Science >> Wetenschap >  >> anders

Invloedcampagnes op X detecteren met AI en netwerkwetenschap

Krediet:Pixabay/CC0 Publiek Domein

In het tijdperk van generatieve AI en grote taalmodellen (LLM’s) kunnen enorme hoeveelheden niet-authentieke inhoud snel worden uitgezonden op sociale-mediaplatforms. Als gevolg hiervan worden kwaadwillende actoren steeds geavanceerder, kapen ze hashtags, versterken ze kunstmatig misleidende inhoud en verspreiden ze massaal propaganda.



Deze acties worden vaak georkestreerd door door de staat gesponsorde informatieoperaties (IO's), die proberen de publieke opinie te beïnvloeden tijdens grote geopolitieke gebeurtenissen zoals de Amerikaanse verkiezingen, de COVID-19-pandemie en meer.

Het bestrijden van deze internationale organisaties is nog nooit zo cruciaal geweest. Het identificeren van invloedscampagnes met uiterst nauwkeurige technologie zal de misclassificatie van legitieme gebruikers als IO-aanjagers aanzienlijk verminderen, waardoor aanbieders van sociale media of toezichthouders niet per ongeluk accounts opschorten terwijl ze illegale activiteiten proberen te beteugelen.

In het licht hiervan leidt onderzoeker Luca Luceri van het USC Information Sciences Institute (ISI) een poging om invloedscampagnes op sociale media te identificeren en te karakteriseren. Zijn meest recente artikel 'Unmasking the Web of Deceit:Uncovering Coulated Activity to Expose Information Operations on Twitter' werd gepresenteerd op de webconferentie op 13 mei 2024.

"Mijn team en ik hebben de afgelopen vijf tot tien jaar gewerkt aan het modelleren en identificeren van IO-drivers zoals bots en trollen", aldus Luceri. "In dit artikel hebben we onze methodologieën naar voren gebracht om een ​​reeks machine learning-modellen zonder toezicht en onder toezicht voor te stellen die georkestreerde invloedscampagnes uit verschillende landen binnen het platform X (voorheen Twitter) kunnen detecteren."

Een versmolten netwerk van vergelijkbaar gedrag

Op basis van een uitgebreide dataset van 49 miljoen tweets uit geverifieerde campagnes uit zes landen – China, Cuba, Egypte, Iran, Rusland en Venezuela – hebben Luceri en zijn team vijf deelgedragingen op X aangescherpt waaraan IO-chauffeurs deelnemen.

Deze omvatten co-retweeting (het delen van identieke tweets), co-URL (het delen van dezelfde links of URL's), hashtag-reeks (het gebruik van een identieke reeks hashtags binnen tweets), snel retweeten (snel opnieuw delen van inhoud van dezelfde gebruikers), en tekstovereenkomst (tweets met vergelijkbare tekstuele inhoud).

Eerder onderzoek richtte zich op het bouwen van netwerken die elk type gedrag in kaart brachten, waarbij de overeenkomsten tussen individuele gebruikers op X werden onderzocht. Luceri en zijn team merkten echter dat deze accounts vaak meerdere strategieën tegelijkertijd gebruiken, wat betekende dat het monitoren van één gedragsspoor niet nodig was. niet genoeg.

“We ontdekten dat co-retweeten massaal werd gebruikt door campagnes in Cuba en Venezuela”, legt Luceri uit. “Als we echter alleen co-retweeting onderzoeken zonder rekening te houden met ander gedrag, zouden we goed presteren bij het identificeren van sommige campagnes, zoals die afkomstig uit Cuba en Venezuela, maar slecht wanneer co-retweeting minder werd gebruikt, zoals in Russische campagnes.”

Om een ​​breder scala aan gecoördineerd deelgedrag vast te leggen, construeerden de onderzoekers een verenigd gelijkenisnetwerk, een Fused Network genaamd. Vervolgens pasten ze machine learning-algoritmen toe, gevoed door topologische eigenschappen van het gefuseerde netwerk, om de overeenkomsten tussen deze accounts te classificeren en hun toekomstige deelname aan IO's te voorspellen.

Luceri en zijn team ontdekten dat deze methode toepasbaar zou kunnen zijn op campagnes over de hele wereld. Meerdere X-gebruikers binnen dezelfde campagne, waar ze ook vandaan komen, vertoonden opmerkelijke collectieve gelijkenis in hun acties.

"Ik beschouw ons werk als een paradigmaverschuiving in onderzoeksmethoden, die een nieuw perspectief biedt bij het identificeren van invloedscampagnes en hun drijfveren", aldus Luceri.

Nieuwe kansen ontsluiten

Het machine learning-model zonder toezicht maakt gebruik van bekende, maar onderbenutte netwerkfuncties en bereikt een 42% hogere nauwkeurigheid dan andere traditionele benaderingen om beïnvloedingscampagnes te detecteren. Luceri beschouwt dit artikel als een startpunt dat de weg zou kunnen openen naar verdere onderzoeksmogelijkheden.

"We kunnen modellen trainen op de topologische kenmerken van dit gelijkenisnetwerk en ze laten werken in complexe scenario's:bijvoorbeeld als verschillende gebruikers uit verschillende landen met elkaar interacteren, of meer uitdagende situaties waarin we beperkte informatie over de campagnes hebben," merkte Luceri op.

Luceri presenteerde ook nog een paper "Leveraging Large Language Models to Detect Influence Campaigns in Social Media" op de Web Conference, die de prijs voor beste paper ontving van de International Workshop on Computational Methods for Online Discourse Analysis (BeyondFacts'24). Het artikel onderzoekt het potentieel van het gebruik van LLM's om de tekenen van AI-gestuurde beïnvloedingscampagnes te herkennen. Dit is vooral cruciaal in het huidige klimaat, waarin door AI gecreëerde media alomtegenwoordig zijn.

"Deze gecoördineerde activiteiten hebben gevolgen in het echte leven", zegt Luceri. "Ze hebben de macht om desinformatie en complottheorieën te verspreiden die kunnen leiden tot protesten of aanvallen op onze democratie, zoals de inmenging van Russische trollen in de Amerikaanse verkiezingen van 2016."

Luceri en zijn team zijn vastbesloten om de zoektocht naar alternatieve strategieën voort te zetten om beïnvloedingscampagnes te identificeren en gebruikers te beschermen die vatbaar zijn voor beïnvloeding.

Meer informatie: Luca Luceri et al, Het web van bedrog ontmaskeren:gecoördineerde activiteit blootleggen om informatieoperaties op Twitter bloot te leggen, arXiv (2023). DOI:10.48550/arxiv.2310.09884

Luca Luceri et al., Grote taalmodellen gebruiken om invloedscampagnes op sociale media te detecteren, arXiv (2023). DOI:10.48550/arxiv.2311.07816

Journaalinformatie: arXiv

Aangeboden door de Universiteit van Zuid-Californië