Resumen: El análisis de datos que preserva la privacidad ha sido puesto en una base matemática firme desde la introducción de la privacidad diferencial (DP) en 2006. Esta definición de privacidad, sin embargo, tiene algunos puntos débiles bien conocidos: en particular, no maneja estrechamente la composición. En esta charla, proponemos una relajación del DP que denominamos «f-DP», que tiene una serie de propiedades atractivas y evita algunas de las dificultades asociadas a las relajaciones anteriores. En primer lugar, f-DP preserva la interpretación de prueba de hipótesis de la privacidad diferencial, lo que hace que sus garantías sean fácilmente interpretables. Permite un razonamiento sin pérdidas sobre la composición y el posprocesamiento y, en particular, una forma directa de analizar la amplificación de la privacidad mediante el submuestreo. Definimos una familia canónica de definiciones de un solo parámetro dentro de nuestra clase que se denomina «privacidad diferencial gaussiana», basada en la prueba de hipótesis de dos distribuciones normales desplazadas. Demostramos que esta familia es focal a f-DP introduciendo un teorema del límite central, que muestra que las garantías de privacidad de cualquier definición de privacidad basada en pruebas de hipótesis (incluyendo la privacidad diferencial) convergen a la privacidad diferencial gaussiana en el límite bajo composición. Este teorema central del límite también proporciona una herramienta de análisis manejable. Demostramos el uso de las herramientas que desarrollamos dando un análisis mejorado de las garantías de privacidad del descenso de gradiente estocástico ruidoso.
Este es un trabajo conjunto con Jinshuo Dong y Aaron Roth.

Este seminario será transmitido en vivo a través de Zoomhttps://umich.zoom.us/j/94350208889
Habrá una recepción virtual a continuación

.