Abstract: A análise de dados de preservação de privacidade foi colocada em uma base matemática firme desde a introdução da privacidade diferencial (DP) em 2006. Esta definição de privacidade, no entanto, tem algumas fraquezas bem conhecidas: notavelmente, ela não lida com composição de forma rígida. Nesta palestra, propomos um relaxamento da PD que denominamos “f-DP”, que tem uma série de propriedades apelativas e evita algumas das dificuldades associadas a relaxões anteriores. Em primeiro lugar, o f-DP preserva a interpretação do teste de hipóteses de privacidade diferencial, o que torna suas garantias facilmente interpretáveis. Ele permite um raciocínio sem perdas sobre composição e pós-processamento, e notadamente, uma forma direta de analisar a ampliação da privacidade por sub-amostragem. Definimos uma família canônica de definições dentro de nossa classe, denominada “Privacidade Diferencial Gaussiana”, baseada no teste de hipóteses de duas distribuições normais deslocadas. Provamos que esta família é focal ao f-DP introduzindo um teorema central de limite, que mostra que as garantias de privacidade de qualquer definição de privacidade baseada em testes de hipóteses (incluindo privacidade diferencial) convergem para a privacidade diferencial gaussiana no limite em composição. Este teorema central de limite também fornece uma ferramenta de análise rastreável. Demonstramos o uso das ferramentas que desenvolvemos, dando uma melhor análise das garantias de privacidade de descida de gradiente estocástico ruidoso.
Este é um trabalho conjunto com Jinshuo Dong e Aaron Roth.

Este seminário será animado via Zoom https://umich.zoom.us/j/94350208889
Haverá uma recepção virtual a seguir