science >> Wetenschap >  >> Elektronica

Bestaat er zoiets als een veilig algoritme? Praten over regulering komt in een stroomversnelling

Credit:Matthew Modoono/Northeastern University

Sinds Frances Haugen, een voormalige Facebook-medewerker, naar voren kwam met verontrustende informatie over de verstrekkende schade veroorzaakt door de algoritmen van het bedrijf, zijn de geruchten over mogelijke hervormingen van de regelgeving alleen maar toegenomen.

Er is nu brede overeenstemming onder deskundigen en politici dat veranderingen in de regelgeving nodig zijn om gebruikers te beschermen, met name jonge kinderen en meisjes, die kwetsbaar zijn voor psychische problemen en problemen met het lichaamsbeeld die verband houden met de algoritmen van het socialemediaplatform. Er zijn verschillende wijzigingen doorgevoerd, van amendementen op sectie 230 van de federale Communications Decency Act - de wet die de aansprakelijkheid regelt tussen serviceproviders, inclusief internet - tot transparantiemandaten die externe experts toegang zouden geven tot de interne werking van technologiebedrijven zoals Facebook .

Maar gezien de verwachting van vrije meningsuiting online, zullen wetgevers creatief moeten zijn. Een mogelijke oplossing is om een ​​nieuw federaal agentschap op te richten dat belast is met het reguleren van de socialemediabedrijven, zoals werd gedaan met het Consumer Financial Protection Bureau in de nasleep van de financiële crisis van 2008, maar het roept vragen op over hoe het politieke proces en de partijen verschillende ideeën over privacy en vrijheid van meningsuiting zouden van invloed zijn op een dergelijke inspanning, zeggen verschillende noordoostelijke experts.

"Ik vraag me af of de partijen ooit zouden overeenkomen om een ​​speciaal agentschap op te richten, of om de [Federal Communications Commission] uit te breiden op manieren die meer regelgevende macht geven aan de federale overheid", zegt David Lazer, universiteitshoogleraar politieke wetenschappen en computerwetenschappen bij Noordoost.

Een nieuw agentschap zou kunnen helpen bij het verlichten van een deel van de regelgevende lasten waarmee de Federal Trade Commission wordt geconfronteerd, maar het kan ook een gevaarlijk politiek wapen blijken te zijn dat geen van beide partijen zou willen dat de ander heeft, zegt Lazer.

Hoe dan ook, er moeten "meer mechanismen zijn om Facebook transparanter te maken", zegt hij.

"Het probleem is dat als je eenmaal transparantie hebt, iedereen iets anders ziet", zegt Lazer.

Haugen getuigde vorige week voor het congres en hielp licht te werpen op hoe Facebook, dat ook eigenaar is van Instagram en WhatsApp, algoritmen bedacht die hatelijke, schadelijke en problematische inhoud promootten ten koste van zijn gebruikers. Uit documenten die Haugen vorige maand met de Wall Street Journal deelde, bleek dat de techgigant wist dat zijn algoritmen schadelijk waren uit intern onderzoek, maar ervoor koos om de informatie geheim te houden.

In het weekend zei een topmanager van Facebook dat het bedrijf voorstander is van het verlenen van toegang aan regelgevers tot zijn algoritmen - en meer transparantie in het algemeen.

Het is belangrijk om te "demystificeren" hoe deze technologieën, die jarenlang verborgen zijn geweest achter een sluier van geheimhouding, echt werken, zegt Woodrow Hartzog, een professor in de rechten en informatica die gespecialiseerd is in gegevensbescherming en privacy.

Het is bijvoorbeeld al jaren bekend dat de algoritmen van Facebook inhoud die verontwaardiging genereert, versterken of optimaliseren. Onthullingen in de Wall Street Journal toonden aan dat Facebook's eigen onderzoek heeft aangetoond dat zijn Instagram-algoritmen onzekerheid voeden en bijdragen aan geestelijke gezondheidsproblemen, door bijvoorbeeld jonge vrouwelijke gebruikers inhoud te promoten die eetstoornissen verheerlijkt.

In plaats van algoritmische versterking te verbieden, zegt Hartzog dat er verplichte waarborgen moeten zijn die de schadelijke effecten van de juiced-algoritmen in de gaten houden, en voegt eraan toe:"Er zijn dingen als veilige algoritmen." De echte vraag, zegt hij, is kunnen we veilige algoritmische versterking hebben?

"Ze zouden verplicht moeten worden om te handelen op een manier die niet in strijd is met onze veiligheid en ons welzijn", zegt Hartzog. "Dat is een manier waarop we dit probleem kunnen aanpakken dat algoritmische versterking niet regelrecht verbiedt."

Hartzog suggereerde ook dat regelgevers gebruik zouden kunnen maken van het concept van fiduciaire verantwoordelijkheid en "zorgplichten, vertrouwelijkheid en loyaliteit" zouden kunnen opleggen aan de technologiebedrijven, vergelijkbaar met de taken waaraan artsen, advocaten en accountants zijn gebonden ten opzichte van hun klanten en patiënten - alleen hier zou het in relatie tot eindgebruikers zijn.

Het probleem ligt bij de financiële prikkels, betoogt Hartzog, en daarom heeft het idee om van de technologiebedrijven 'informatiefiduciaires' te maken aan populariteit gewonnen. Staats- en federale wetgevers onderzoeken het informatiefiduciaire model in de wetgeving die wordt herzien.

"Wat ik hier graag uit zou willen zien... is een dieper en breder gesprek over hoe de prikkels die aanzetten tot allerlei schadelijk gedrag met betrekking tot het verzamelen en gebruiken van privé-informatie fundamenteel kunnen veranderen", zegt Hartzog.