Wetenschap
Krediet:CC0 Publiek Domein
Google heeft aangekondigd dat het de open-sourceversie van een differentiële privacybibliotheek uitbrengt die sommige van zijn eigen producten van stroom voorziet.
Google heeft geïnvesteerd in differentiële privacybescherming, bijvoorbeeld, om te meten hoe populair het gerecht van een bepaald restaurant is op Google Maps, zei Engadget . Nu kan de tool andere ontwikkelaars helpen een gewenst niveau van differentiële privacybescherming te bereiken. "Door zijn eigen tool voor differentiële privacy vrij te geven, Google zal het voor elk bedrijf gemakkelijker maken om zijn privacy bonafide te vergroten, " zei Bedrade .
Maak een back-up. Wat is differentiële privacy? Dit is data science-taal. Hier is hoe Lily Hay Newman het beschreef in: Bedrade :Het voegt strategisch willekeurige ruis toe aan gebruikersinformatie die is opgeslagen in databases, zodat bedrijven deze nog steeds kunnen analyseren zonder mensen eruit te kunnen pikken.
Eerder, Andy Greenberg had het bedekt met Bedrade als "een wiskundig hulpmiddel, " het beheren van gebruikersgegevens en tegelijkertijd de privacy van de gebruiker beschermen. Hoe? Voer die toevoeging van "willekeurige ruis" in de informatie van de persoon in "voordat deze naar de cloud wordt geüpload."
Nick Statt in De rand bood een andere momentopname van differentiële privacy als "een cryptografische benadering van datawetenschap, vooral op het gebied van analyse, waarmee iemand die vertrouwt op software-ondersteunde analyse inzichten kan putten uit enorme datasets terwijl de privacy van de gebruiker wordt beschermd."
In mei, Nicolas Sartor in luchtmantel schreef over hoe het verband hield met anonimisering, een term die velen al kennen. "Als het gaat om gegevensanonimisering, men komt onvermijdelijk verschillende privacy tegen. Veel privacyonderzoekers beschouwen het als de 'gouden standaard' van anonimisering. Bekende technologiebedrijven zoals Apple of Google gebruiken het voor bepaalde gegevensanalyses en brengen het op de markt om het publiek bewust te maken en hun focus op gegevensbescherming te onderstrepen."
Wat betreft de aankondiging van Google, Newman rapporteerde over wat ontwikkelaars krijgen:(1) een reeks open source differentiële privacybibliotheken die vergelijkingen en modellen bieden die nodig zijn om grenzen en beperkingen te stellen aan het identificeren van gegevens en (2) een interface om het voor meer ontwikkelaars gemakkelijker te maken om de beveiligingen te implementeren.
Miguel Guevara, Productmanager, Bureau voor privacy en gegevensbescherming, heeft donderdag iets op het Google Developers-blog gepost dat duidelijk maakt dat niet alleen ontwikkelaars, maar ook bedrijven en op hun beurt de mensen die ze bedienen, baat kunnen hebben bij sterke privacybescherming, terwijl de open source-bibliotheek is ontworpen om aan de behoeften van ontwikkelaars te voldoen.
"Of je nu een stedenbouwkundige bent, een kleine ondernemer, of een softwareontwikkelaar, het verkrijgen van nuttige inzichten uit gegevens kan helpen om services beter te laten werken en belangrijke vragen te beantwoorden. Maar, zonder sterke privacybescherming, loopt u het risico het vertrouwen van uw burgers te verliezen, klanten, en gebruikers."
Guevera zei:"Van de geneeskunde, aan de overheid, tot zaken, en verder, het is onze hoop dat deze open source-tools zullen helpen om inzichten te verkrijgen die iedereen ten goede komen." Guevara gaf een voorbeeld van hoe de analyse zou kunnen worden geïmplementeerd door onderzoekers in de gezondheidszorg.
"Differentieel-private data-analyse... stelt organisaties in staat om te leren van de meeste van hun gegevens en er tegelijkertijd voor te zorgen dat die resultaten het niet mogelijk maken om de gegevens van een individu te onderscheiden of opnieuw te identificeren... Bijvoorbeeld, als u een gezondheidsonderzoeker bent, misschien wilt u de gemiddelde verblijfsduur van patiënten in verschillende ziekenhuizen vergelijken om te bepalen of er verschillen in zorg zijn. Differentiële privacy is een hoge mate van zekerheid, analytische middelen om ervoor te zorgen dat dergelijke use-cases op een privacybeschermende manier worden aangepakt."
De GitHub-pagina zei dat het project "een C++-bibliotheek met ε-differentieel privé-algoritmen heeft, die kunnen worden gebruikt om geaggregeerde statistieken te produceren over numerieke datasets die persoonlijke of gevoelige informatie bevatten. In aanvulling, we bieden een stochastische tester om de juistheid van de algoritmen te controleren."
Werkelijk, die stochastische tester is wat Help internetbeveiliging 's Zeljka Zorz vond de release het belangrijkste. Ze zei dat het was om glitches en problemen bij de implementatie op te sporen "die ervoor zouden kunnen zorgen dat de differentiële privacy-eigenschap niet langer geldig is. Hierdoor kunnen ontwikkelaars ervoor zorgen dat hun implementatie werkt zoals het hoort."
Haar opmerking vond weerklank in het licht van wat Newman in Bedrade zei over experts die ontwikkelaars sterk ontmoedigen om te proberen "je eigen" differentiële privacyregeling te gebruiken, of ontwerp er een helemaal opnieuw. "Google hoopt dat zijn open source-tool zo gebruiksvriendelijk zal zijn dat het een one-stop-shop kan zijn voor ontwikkelaars die anders in de problemen zouden komen."
CNET citeerde Bryant Gipson, een technisch manager bij Google, in een interview. "Het doel hiervan is om een bibliotheek van primaire algoritmen te bieden waarop je elk type differentiële privacy-oplossing kunt bouwen."
© 2019 Wetenschap X Netwerk
Wetenschap © https://nl.scienceaq.com