Wetenschap
Techbedrijven kunnen differentiële privacy gebruiken om geaggregeerde gegevens over gebruikersgewoonten te verzamelen en te delen, met behoud van individuele privacy. Krediet:Tim Snell/Flickr, CC BY-ND
Het is geen geheim dat grote technologiebedrijven zoals Facebook, Google, Apple en Amazon infiltreren in toenemende mate onze persoonlijke en sociale interacties om elke dag enorme hoeveelheden gegevens over ons te verzamelen. Tegelijkertijd, privacyschendingen in cyberspace halen regelmatig voorpaginanieuws.
Dus hoe moet privacy worden beschermd in een wereld waarin gegevens steeds sneller en vindingrijker worden verzameld en gedeeld?
Differentiële privacy is een nieuw model van cyberbeveiliging waarvan voorstanders beweren dat het persoonlijke gegevens veel beter kan beschermen dan traditionele methoden.
De wiskunde waarop het is gebaseerd, is 10 jaar geleden ontwikkeld, en de methode is de afgelopen jaren door Apple en Google overgenomen.
Wat is differentiële privacy?
Differentiële privacy maakt het voor technologiebedrijven mogelijk om geaggregeerde informatie over gebruikersgewoonten te verzamelen en te delen, met behoud van de privacy van individuele gebruikers.
Bijvoorbeeld, stel dat je de populairste routes wilt laten zien die mensen nemen om door een park te lopen. Je volgt de routes van 100 mensen die regelmatig door het park lopen, en of ze nu op het pad of door het gras lopen.
Maar in plaats van de specifieke mensen te delen die elke route nemen, u deelt de geaggregeerde gegevens die in de loop van de tijd zijn verzameld. Mensen die uw resultaten bekijken, weten misschien dat 60 van de 100 mensen liever een kortere weg door het gras nemen, maar niet welke 60 mensen.
Waarom hebben we het nodig?
Veel van 's werelds regeringen hebben een strikt beleid over hoe technologiebedrijven gebruikersgegevens verzamelen en delen. Bedrijven die zich niet aan de regels houden, kunnen hoge boetes krijgen. Een Belgische rechtbank heeft Facebook onlangs bevolen om te stoppen met het verzamelen van gegevens over het surfgedrag van gebruikers op externe websites, of een boete van € 250,- 000 per dag.
Voor veel bedrijven is met name multinationals die in verschillende rechtsgebieden actief zijn, dit plaatst hen in een delicate positie als het gaat om het verzamelen en gebruiken van klantgegevens.
Aan de ene kant, deze bedrijven hebben gebruikersgegevens nodig om hoogwaardige diensten te kunnen leveren die de gebruikers ten goede komen, zoals gepersonaliseerde aanbevelingen. Anderzijds, ze kunnen worden aangeklaagd als ze te veel gebruikersgegevens verzamelen, of als ze gegevens van het ene rechtsgebied naar het andere proberen te verplaatsen.
Traditionele tools voor privacybehoud, zoals cryptografie, kunnen dit dilemma niet oplossen, omdat het technologiebedrijven verhindert om toegang te krijgen tot de gegevens. En anonimiteit vermindert de waarde van gegevens - een algoritme kan u geen gepersonaliseerde aanbevelingen geven als het niet weet wat uw gewoonten zijn.
Krediet:Marco Verch/Flickr, CC BY
Hoe werkt het?
Laten we het voorbeeld van wandelroutes door een park voortzetten. Als u de identiteit kent van degenen die in het onderzoek zijn opgenomen, maar je weet niet wie welke route heeft genomen, dan zou je kunnen veronderstellen dat de privacy wordt beschermd. Maar dat is misschien niet het geval.
Stel dat iemand die uw gegevens bekijkt, wil weten of Bob het liefst door het gras of op het pad loopt. Ze hebben achtergrondinformatie verkregen over de andere 99 mensen in het onderzoek, wat hen vertelt dat 40 mensen liever op het pad lopen en 59 liever door het gras lopen. Daarom, ze kunnen afleiden dat Bob, wie is de 100e persoon in de database, is de 60e persoon die het liefst door het gras loopt.
Dit type aanval wordt een gedifferentieerde aanval genoemd, en het is vrij moeilijk om je ertegen te verdedigen, omdat je niet kunt bepalen hoeveel achtergrondkennis iemand kan verkrijgen. Differentiële privacy is bedoeld als verdediging tegen dit soort aanvallen.
Iemand die uw looproute afleidt, klinkt misschien niet al te serieus, maar als je wandelroutes vervangt door hiv-testresultaten, dan kun je zien dat er potentieel is voor een ernstige inbreuk op de privacy.
Het differentiële privacymodel garandeert dat zelfs als iemand volledige informatie heeft over 99 van de 100 mensen in een dataset, ze kunnen de informatie over de uiteindelijke persoon nog steeds niet afleiden.
Het primaire mechanisme om dat te bereiken is het toevoegen van willekeurige ruis aan de geaggregeerde gegevens. In het padvoorbeeld je zou kunnen zeggen dat het aantal mensen dat liever het gras oversteekt 59 of 61 is, in plaats van het exacte aantal van 60. Het onnauwkeurige aantal kan de privacy van Bob beschermen, maar het zal weinig invloed hebben op het patroon:zo'n 60% van de mensen geeft er de voorkeur aan om een kortere weg te nemen.
Het geluid is zorgvuldig ontworpen. Toen Apple in iOS 10 differentiële privacy gebruikte, het voegde ruis toe aan individuele gebruikersinvoer. Dat betekent dat het kan volgen, bijvoorbeeld, de meest gebruikte emoji's, maar het emoji-gebruik van elke individuele gebruiker wordt gemaskeerd.
Cynthia Dwerk, de uitvinder van de differentiële privacy, heeft prachtige wiskundige bewijzen voorgesteld over hoeveel ruis genoeg is om aan de eis van differentiële privacy te voldoen.
Wat zijn de praktische toepassingen?
Differentiële privacy kan op alles worden toegepast, van aanbevelingssystemen tot locatiegebaseerde diensten en sociale netwerken. Apple gebruikt differentiële privacy om anonieme gebruiksinzichten te verzamelen van apparaten zoals iPhones, iPads en Macs. De methode is gebruiksvriendelijk, en juridisch duidelijk.
Differentiële privacy zou een bedrijf als Amazon ook toegang geven tot uw persoonlijke winkelvoorkeuren terwijl gevoelige informatie over uw historische aankooplijst wordt verborgen. Facebook zou het kunnen gebruiken om gedragsgegevens te verzamelen voor gerichte advertenties, zonder het privacybeleid van een land te schenden.
Hoe zou het in de toekomst kunnen worden gebruikt?
Verschillende landen hebben een verschillend privacybeleid, en gevoelige documenten moeten momenteel handmatig worden gecontroleerd voordat ze van het ene land naar het andere gaan. Dit is tijdrovend en kostbaar.
Onlangs, een team van Deakin University ontwikkelde differentiële privacytechnologie om privacyprocessen binnen cloud-sharinggemeenschappen in verschillende landen te automatiseren.
Ze stellen voor om wiskundige formules te gebruiken om de privacywetten van elk land te modelleren die kunnen worden vertaald naar "middleware" (software) om ervoor te zorgen dat de gegevens conform zijn. Door op deze manier gebruik te maken van differentiële privacy kan de privacy van gebruikers worden beschermd en problemen met het delen van gegevens voor technologiebedrijven worden opgelost.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com