science >> Wetenschap >  >> Elektronica

Big Tech overdrijft AI als de oplossing voor online extremisme

Krediet:CC0 Publiek Domein

Half september dreigde de Europese Unie de Big Tech-bedrijven te beboeten als ze terroristische inhoud niet binnen een uur na online verschijnen zouden verwijderen. De verandering kwam omdat er zich nu toenemende spanningen ontwikkelen en worden uitgespeeld op sociale mediaplatforms.

Sociale conflicten die ooit ontstonden in achterkamertjes en tot een hoogtepunt kwamen in de straten van de stad, bouwen nu momentum op op sociale-mediaplatforms voordat ze overgaan in het echte leven. Vroeger, regeringen hadden de neiging om de traditionele media te controleren, met weinig tot geen mogelijkheid voor individuen om haat uit te zenden.

De digitale revolutie heeft alles veranderd.

Terroristische organisaties, met name militanten van de Islamitische Staat (ISIS), gebruik hebben gemaakt van sociale mediaplatforms zoals Facebook, Instagram en Twitter voor hun propagandacampagnes, en om terroristische aanslagen op burgers te plannen.

Extreem rechtse groepen, inclusief anti-vluchtelingen-extremisten in Duitsland, maken ook in toenemende mate gebruik van technologieplatforms om anti-immigrantenopvattingen te omarmen en minderheden te demoniseren.

Van Sri Lanka tot Myanmar, gemeenschappelijke spanningen — online aangewakkerd — hebben geleid tot geweld.

Door de groeiende politieke wil binnen westerse landen om social media bedrijven te reguleren, veel tech-titanen beweren dat ze zichzelf kunnen reguleren - en dat kunstmatige intelligentie (AI) een van de belangrijkste hulpmiddelen is om online haat in te dammen. Een aantal jaar geleden, we hebben het Digital Mass Atrocity Prevention Lab opgericht om te werken aan het verbeteren van het overheidsbeleid om de exploitatie van technische platforms door gewelddadige extremisten te beteugelen.

Oververkochte capaciteiten?

Techbedrijven zijn zich pijnlijk bewust van het kwaadwillende gebruik van hun platformen.

In juni 2017, Facebook, Microsoft, Twitter en YouTube hebben de oprichting aangekondigd van het Global Internet Forum to Counter Terrorism, die tot doel heeft extremistische online activiteiten te verstoren. Maar naarmate de politieke druk om schadelijke online-inhoud te verwijderen toeneemt, deze bedrijven beginnen de grenzen van hun moderators van menselijke inhoud te beseffen.

In plaats daarvan, ze ontwikkelen en implementeren steeds vaker AI-technologieën om het proces van detectie en verwijdering van ongewenste inhoud te automatiseren. Maar ze doen dit zonder toezicht en weinig openbare informatie over hoe deze AI-systemen werken, een probleem dat is vastgesteld in een recent rapport van het Public Policy Forum.

Twitter, volgens haar meest recente transparantieverslag, beweert dat het AI heeft gebruikt om meer dan 300 neer te halen, 000 aan terrorisme gerelateerde rekeningen in de eerste helft van 2017.

Facebook erkent zelf dat het moeite heeft om AI op een efficiënte manier in te zetten bij vraagstukken rond haatzaaien. CEO Mark Zuckerberg vertelde eerder dit jaar aan leden van het Amerikaanse Congres dat AI nog steeds moeite heeft om de nuances van taaldialecten aan te pakken. context en of een uitspraak al dan niet gekwalificeerd is als haatdragende taal — en dat het jaren kan duren om op te lossen.

Echter, het bedrijf beweert ook 99 procent van ISIS en al-Qaida gelieerde inhoud te kunnen verwijderen met behulp van AI-aangedreven algoritmen en menselijke inhoudsmoderators. Of AI of mensen de sleutel zijn tot de succesclaims van het bedrijf, is nog niet onafhankelijk onderzocht.

Het falen van AI

in 2017, 250 bedrijven hebben hun advertentiecontracten met Google opgeschort vanwege het vermeende verzuim om de extremistische inhoud van YouTube te modereren. Een jaar later, Google's senior vice-president van reclame en commercie, Sridhar Ramaswamy, zegt dat het bedrijf sterke vooruitgang boekt op het gebied van platformveiligheid om het verloren vertrouwen van zijn klanten terug te winnen.

Echter, een recent onderzoek van de NGO Counter Extremism Project weerlegt de effectiviteit van de inspanningen van het bedrijf om extremistische video's te beperken en te verwijderen. Er is meer transparantie en verantwoording van YouTube nodig, aangezien uit de studie bleek dat meer dan 90 procent van de ISIS-video's meer dan eens werd geüpload, zonder dat er actie is ondernomen tegen de accounts die de servicevoorwaarden van het bedrijf hebben geschonden.

Het is duidelijk dat er geen eenvoudige weg vooruit is. Inhoud verwijderen die niet schadelijk is, offensief, extremistisch of illegaal, ook al is het onsmakelijk, is een belemmering voor de vrijheid van meningsuiting. In sommige gevallen, het gebruik van AI om inhoud te verwijderen heeft legitiem materiaal geblokkeerd dat is geplaatst door mensenrechtenkampioenen.

Bijvoorbeeld, in 2017, Sjah Hossain, een mensenrechtenactivist ontdekte dat een aanzienlijk aantal van zijn Facebook-berichten over de vervolging van de Rohingya-minderheid in Myanmar was verwijderd. YouTube heeft ook zijn nieuwskanaal gewist, die bijna 80, 000 abonnees. Hossain documenteerde mensenrechtenschendingen, geen haat koesteren.

In Syrië, waar onafhankelijke journalistiek ernstig wordt beperkt door oorlog, video's en foto's die door activisten online zijn geplaatst, zijn cruciaal om de situatie in het land te begrijpen. In een poging om hardhandig optreden tegen extremistische inhoud, echter, De door AI aangedreven algoritmen van YouTube verwijderden duizenden video's van wreedheden tegen burgers. De video's werden gepost als bewijs voor de uiteindelijke vervolging van Syrische functionarissen voor misdaden tegen de menselijkheid. Dit is behoorlijk verontrustend.

Vooruit gaan

Bekende socialemediagiganten hebben publiekelijk gezegd dat ze meer middelen zullen steken in het controleren van hun platforms. Echter, gezien de huidige resultaten, het is tijd om te overwegen of deze aanpak ethisch en effectief is.

Het Verenigd Koninkrijk, Frankrijk, Duitsland, de Europese Unie en de Verenigde Staten, onder andere, zijn begonnen met het openlijk bespreken en implementeren van regelgevende maatregelen voor de technische industrie, niet alleen met betrekking tot terrorisme en haatzaaien, maar ook digitale verkiezingsinmenging, de verspreiding van "nepnieuws" en desinformatiecampagnes.

Canada is de kwestie ook serieus gaan nemen, het vormen van het Digital Inclusion Lab bij Global Affairs Canada, die werkt om de gecombineerde inspanningen van de G7 te versterken.

Dit zijn broodnodige initiatieven. De grote techreuzen hebben de effectiviteit van AI bij het tegengaan van haat op hun platforms te veel verkocht. Onze democratische en open samenlevingen moeten het idee opzij zetten dat AI het wondermiddel voor het probleem is. Sociale polarisatie en groeiend wantrouwen over de hele planeet zullen doorgaan tenzij gekozen functionarissen Big Tech reguleren.

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.