Abstrakt: Analys av data som bevarar integriteten har fått en fast matematisk grund sedan införandet av differentiell integritet (DP) 2006. Denna definition av sekretess har dock några välkända svagheter: framför allt hanterar den inte komposition på ett bra sätt. I det här föredraget föreslår vi en uppmjukning av DP som vi kallar ”f-DP”, som har ett antal tilltalande egenskaper och undviker några av de svårigheter som är förknippade med tidigare uppmjukningar. För det första bevarar f-DP tolkningen av hypotesprövning av differentiell sekretess, vilket gör att dess garantier är lätt att tolka. Det möjliggör förlustfria resonemang om sammansättning och efterbearbetning, och framför allt ett direkt sätt att analysera integritetsförstärkning genom subsampling. Vi definierar en kanonisk enparameterfamilj av definitioner inom vår klass som kallas ”Gaussian Differential Privacy”, baserad på hypotesprövning av två förskjutna normalfördelningar. Vi bevisar att denna familj är fokal till f-DP genom att införa en central gränssats, som visar att integritetsgarantierna för varje hypotesprövningsbaserad definition av integritet (inklusive differentiell integritet) konvergerar till Gaussian Differential Privacy i gränsen under komposition. Denna centrala gränssats ger också ett lätthanterligt analysverktyg. Vi demonstrerar användningen av de verktyg vi utvecklar genom att ge en förbättrad analys av integritetsgarantierna för brusande stokastisk gradientnedgång.
Detta är ett gemensamt arbete med Jinshuo Dong och Aaron Roth.
Detta seminarium kommer att livestreammas via Zoom https://umich.zoom.us/j/94350208889
Det kommer att hållas en virtuell mottagning efteråt
.
Lämna ett svar