Abstract : Privacy-preserving data analysis has been put on a firm mathematical foundation since the introduction of differential privacy (DP) in 2006. Cette définition de la confidentialité présente cependant des faiblesses bien connues : notamment, elle ne gère pas étroitement la composition. Dans cet exposé, nous proposons une relaxation de DP que nous appelons « f-DP », qui possède un certain nombre de propriétés intéressantes et évite certaines des difficultés associées aux relaxations précédentes. Tout d’abord, f-DP préserve l’interprétation de test d’hypothèse de la confidentialité différentielle, ce qui rend ses garanties facilement interprétables. Elle permet un raisonnement sans perte sur la composition et le post-traitement, et notamment, un moyen direct d’analyser l’amplification de la confidentialité par le sous-échantillonnage. Nous définissons une famille canonique de définitions à un seul paramètre au sein de notre classe, appelée « confidentialité différentielle gaussienne », basée sur le test d’hypothèse de deux distributions normales décalées. Nous prouvons que cette famille est focale à la f-DP en introduisant un théorème central limite, qui montre que les garanties de confidentialité de toute définition de la confidentialité basée sur le test d’hypothèse (y compris la confidentialité différentielle) convergent vers la confidentialité différentielle gaussienne dans la limite sous composition. Ce théorème central limite donne également un outil d’analyse traçable. Nous démontrons l’utilisation des outils que nous développons en donnant une analyse améliorée des garanties de confidentialité de la descente de gradient stochastique bruyante.
Ce travail est conjoint avec Jinshuo Dong et Aaron Roth.

Ce séminaire sera diffusé en direct via Zoom https://umich.zoom.us/j/94350208889
Il y aura une réception virtuelle pour suivre

.