Abstract: Privacy-preservering dataanalyse er blevet sat på et solidt matematisk fundament siden indførelsen af differentielt privatliv (DP) i 2006. Denne definition af privatlivets fred har imidlertid nogle velkendte svagheder: navnlig håndterer den ikke nøje komposition. I dette foredrag foreslår vi en lempelse af DP, som vi kalder “f-DP”, og som har en række tiltalende egenskaber og undgår nogle af de vanskeligheder, der er forbundet med tidligere lempelser. For det første bevarer f-DP hypotesetestfortolkningen af differentiel fortrolighed, hvilket gør dens garantier let fortolkbare. Det giver mulighed for tabsfrie ræsonnementer om sammensætning og efterbehandling og især en direkte måde at analysere forstærkning af privatlivets fred ved subsampling på. Vi definerer en kanonisk enkeltparameter-familie af definitioner inden for vores klasse, der kaldes “Gaussian Differential Privacy”, baseret på hypotesetestning af to forskudte normalfordelinger. Vi beviser, at denne familie er fokal til f-DP ved at indføre en central grænsesætning, som viser, at privatlivsgarantierne for enhver hypotesetestbaseret definition af privatlivsbeskyttelse (herunder differentiel privatlivsbeskyttelse) konvergerer til Gaussisk differentiel privatlivsbeskyttelse i den grænse, der er under sammensætning. Denne centrale grænsesætning giver også et lettilgængeligt analyseværktøj. Vi demonstrerer brugen af de værktøjer, vi udvikler, ved at give en forbedret analyse af privatlivsgarantierne for støjende stochastisk gradientafstigning.
Dette er et fælles arbejde med Jinshuo Dong og Aaron Roth.

Dette seminar vil blive livestreamet via Zoom https://umich.zoom.us/j/94350208889
Der vil være en virtuel reception til opfølgning