science >> Wetenschap >  >> Elektronica

Omdat Facebook tools voor kunstmatige intelligentie omarmt, zal het de consument verder afschrikken?

Sociale-mediabedrijven hebben kunstmatige-intelligentietools omarmd om hun platforms van haatspraak te schrobben, terroristische propaganda en andere inhoud die schadelijk wordt geacht. Maar zullen die tools andere inhoud censureren? Kan een programma de waarde van spraak beoordelen?

Facebook-oprichter Mark Zuckerberg vertelde vorige week aan het Congres dat zijn bedrijf snel AI-tools ontwikkelt om "bepaalde soorten slechte activiteit proactief te identificeren en voor ons team te markeren".

Het is een van de vele acties van Facebook, omdat het worstelt met een erosie van het consumentenvertrouwen door het verzamelen van gebruikersgegevens, zijn vroegere kwetsbaarheid voor gerichte politieke verkeerde informatie en de ondoorzichtigheid van de formules waarop zijn nieuwsfeeds zijn gebouwd.

Sommige technologen zijn van mening dat AI-tools deze problemen waarmee Facebook en andere sociale-mediabedrijven worden geconfronteerd, niet zullen oplossen.

"Het probleem is dat surveillance het bedrijfsmodel van Facebook is:surveillance om psychologische manipulatie te vergemakkelijken, " zei Bruce Schneier, een bekende beveiligingsexpert en privacyspecialist. "Of het nu door mensen wordt gedaan of (kunstmatige intelligentie) zit in het lawaai."

Zuckerberg zei dat zijn Menlo Park, Californië, bedrijf vertrouwt op zowel AI-tools als duizenden werknemers om inhoud te beoordelen. Aan het eind van het jaar, hij zei, zo'n 20, 000 Facebook-medewerkers zullen "werken aan beveiliging en inhoudsbeoordeling".

Het bedrijf ontwikkelt zijn AI-tools om haatzaaiende uitlatingen en nepnieuws op zijn platform op te sporen en beschouwt de tools als een "schaalbare manier om de meeste van deze schadelijke inhoud te identificeren en uit te roeien. " hij zei, meerdere keren meer dan 10 uur aan getuigenissen op twee dagen aangeven dat Facebook-algoritmen sneller aanstootgevende inhoud kunnen vinden dan mensen.

"Vandaag, terwijl we hier zitten, 99 procent van de inhoud van ISIS en Al-Qaida die we op Facebook verwijderen, onze AI-systemen markeren voordat een mens het ziet, " Zuckerberg zei tijdens een hoorzitting in de Senaat:verwijzend naar extremistische islamitische groeperingen.

De kunstmatige-intelligentiesystemen werken samen met een antiterrorismeteam van mensen dat volgens Zuckerberg 200 medewerkers telt. "Ik denk dat we capaciteit hebben in 30 talen waar we aan werken, " hij zei.

Andere bestaande AI-tools "doen beter om valse accounts te identificeren die mogelijk proberen de verkiezingen te verstoren of verkeerde informatie te verspreiden, " zei hij. Nadat nepaccounts politieke informatie op Facebook hadden geplaatst die de verkiezingen van 2016 verstoorde, Facebook heeft proactief "tienduizenden nepaccounts" verwijderd voor de Franse en Duitse verkiezingen in 2017, en de speciale verkiezing van Alabama voor een vacante senaatszetel afgelopen december, hij voegde toe.

Facebook is verre van de enige onder de socialemediabedrijven die kunstmatige intelligentie gebruiken om mensen te helpen bij het monitoren van inhoud.

"AI-tools in samenwerking met mensen kunnen het beter dan beide alleen, " zei Wendell Wallach, een onderzoeker bij The Hastings Center, een onderzoeksinstituut voor bio-ethiek in Garrison, New York.

Maar Wallach merkte op dat veel gebruikers kunstmatige intelligentie niet begrijpen, en Big Tech kan te maken krijgen met een terugslag zoals voedselproblemen met genetisch gemodificeerde (GGO) ingrediënten.

"De toonaangevende AI-bedrijven, die toevallig hetzelfde zijn als de toonaangevende digitale bedrijven van dit moment, begrijpen dat er een GGO-achtige olifant is die uit de AI-kast zou kunnen springen, ' zei Wallach.

Nu al, bezorgdheid neemt toe onder conservatieven op Capitol Hill dat platforms zoals Facebook naar politiek links kantelen, of AI-tools of mensen betrokken zijn bij het nemen van inhoudelijke beslissingen.

'Herken je deze mensen?' Vertegenwoordiger Billy Long, R-Mo., vroeg Zuckerberg terwijl hij een foto van twee zussen omhoog hield.

'Is dat Diamant en Zijde?' Zuckerberg vroeg, verwijzend naar twee zwarte social media persoonlijkheden die fervente aanhangers zijn van president Donald Trump.

Inderdaad, het was, Lang zei, en Facebook had ze als 'onveilig' beschouwd.

"Wat is er onveilig aan twee zwarte vrouwen die president Donald J. Trump steunen?"

Zuckerberg merkte later op dat zijn Facebook-team "een handhavingsfout maakte, en we hebben al contact met ze opgenomen om het terug te draaien."

Tools voor kunstmatige intelligentie blinken uit in het identificeren van opvallende informatie uit massa's gegevens, maar hebben moeite om de context te begrijpen, vooral in gesproken taal, aldus deskundigen.

"Precies dezelfde zin, afhankelijk van de relatie tussen twee personen, kan een uiting van haat of een uiting van genegenheid zijn, " zei David Danks, een expert op het gebied van ethiek rond autonome systemen aan de Carnegie Mellon University. Hij noemde het gebruik van het "N-woord, " wat tussen sommige mensen een vriendelijke term kan zijn, maar wordt ook algemeen beschouwd als haatzaaien in andere contexten.

Alle fouten die AI-tools maken in dergelijke taalkundige mijnenvelden kunnen worden geïnterpreteerd als censuur of politieke vooringenomenheid die het vertrouwen in socialemediabedrijven verder zou kunnen verminderen.

"Het grote publiek, I denk, heeft veel minder vertrouwen in deze bedrijven, ' zei Danks.

Eventueel, hij zei, de algoritmen en AI-tools van een handvol bedrijven zullen meer vertrouwen krijgen bij het publiek, zelfs als consumenten niet begrijpen hoe ze werken.

"Ik begrijp in veel opzichten niet hoe mijn auto werkt, maar ik vertrouw er nog steeds op dat hij functioneert op alle manieren die ik nodig heb. ' zei Danks.

Net zoals bibliothecarissen ooit een subjectief oordeel gebruikten om boeken uit de schappen te halen, sociale-mediabedrijven kunnen ook kritiek krijgen dat AI-tools te ver gaan.

"Twitter ziet dit onder ogen, " zei James J. Hughes, uitvoerend directeur van het Instituut voor Ethiek en Opkomende Technologieën, in Boston. "Pinterest en Instagram verwijderen altijd websites van artiesten die naakte lichamen in zich hebben als ze denken dat ze porno zijn. wanneer ze dat niet zijn.

"En dat doen ze op basis van kunstmatige intelligentie-algoritmen die aangeven hoeveel naakt vlees er in beeld is."

In zijn getuigenis, Zuckerberg zei dat AI-tools steeds bedrevener werden in het "identificeren van nepaccounts die mogelijk proberen de verkiezingen te verstoren of verkeerde informatie te verspreiden".

Facebook heeft toegegeven dat een Russisch bureau Facebook gebruikte om verkeerde informatie te verspreiden die rond de tijd van de presidentsverkiezingen van 2016 tot 126 miljoen mensen bereikte. en dat de persoonlijke gegevens van 87 miljoen mensen mogelijk zijn misbruikt door de firma Cambridge Analytica om kiezers in het voordeel van Trump te targeten.

Zuckerberg vertelde senatoren dat de vertraging van Facebook bij het identificeren van Russische inspanningen om zich in de verkiezingen te mengen "een van mijn grootste spijt is bij het leiden van het bedrijf" en beloofde beter te doen om manipulatie voor de verkiezingen van dit jaar te bestrijden.

Terwijl wetgevers worstelden over de vraag of Facebook en andere socialemediabedrijven regulering nodig hebben, Zuckerberg werd herhaaldelijk geconfronteerd met vragen over de aard van zijn bedrijf. Is het ook een mediabedrijf omdat het content produceert? Een softwarebedrijf? Een financiële dienstverlener die geldtransfers ondersteunt?

"Ik beschouw ons als een technologiebedrijf, omdat het belangrijkste wat we doen is ingenieurs hebben die code schrijven en producten en diensten bouwen voor andere mensen, Zuckerberg vertelde een hoorzitting in het Huis.

Experts zeggen dat het antwoord geen antwoord geeft op complexe problemen rond platforms die steeds meer op openbare nutsbedrijven lijken.

"Het elektriciteitsbedrijf mag niet zeggen, we houden niet van uw politieke opvattingen, daarom gaan we u geen elektriciteit geven, '" zei Danks. "Als iemand van Facebook wordt geplukt, komt dat neer op het afsluiten van de stroom door het elektriciteitsbedrijf? Of is het meer de persoon die heel luidruchtig en onaangenaam is in een bar, en de eigenaar zegt:'Je moet nu weggaan'?"

© 2018 McClatchy Washington Bureau
Gedistribueerd door Tribune Content Agency, LLC.