Abstract: Privacy-preserving data analysis heeft een stevige wiskundige basis gekregen sinds de introductie van differentiële privacy (DP) in 2006. Deze privacydefinitie heeft echter een aantal bekende zwakke punten: met name gaat ze niet goed om met compositie. In deze lezing stellen we een versoepeling van DP voor die we “f-DP” noemen, en die een aantal aantrekkelijke eigenschappen heeft en een aantal moeilijkheden vermijdt die met eerdere versoepelingen worden geassocieerd. Ten eerste behoudt f-DP de hypothesetestinterpretatie van differentiële privacy, waardoor de garanties gemakkelijk interpreteerbaar zijn. Het maakt het mogelijk zonder verlies te redeneren over samenstelling en nabewerking, en met name een directe manier om privacyversterking door subsampling te analyseren. Wij definiëren een canonieke één-parameter familie van definities binnen onze klasse die “Gaussische Differentiële Privacy” wordt genoemd, gebaseerd op hypothesetests van twee verschoven normale verdelingen. We bewijzen dat deze familie focaal is aan f-DP door een centrale limietstelling te introduceren, die aantoont dat de privacywaarborgen van elke op hypothesetoetsing gebaseerde definitie van privacy (inclusief differentiële privacy) convergeren naar Gaussische differentiële privacy in de limiet onder samenstelling. Deze centrale limiet stelling geeft ook een tractabel analyse-instrument. We demonstreren het gebruik van de hulpmiddelen die we ontwikkelen door een verbeterde analyse te geven van de privacywaarborgen van lawaaierige stochastische gradiënt afdalingen.
Dit is een gezamenlijk werk met Jinshuo Dong en Aaron Roth.

Dit seminarie zal live gestreamd worden via Zoom https://umich.zoom.us/j/94350208889
Er zal een virtuele receptie volgen