Abstract: L’analisi dei dati che preserva la privacy è stata posta su una solida base matematica dall’introduzione della privacy differenziale (DP) nel 2006. Questa definizione di privacy, tuttavia, ha alcune ben note debolezze: in particolare, non gestisce strettamente la composizione. In questo intervento, proponiamo un rilassamento di DP che chiamiamo “f-DP”, che ha una serie di proprietà interessanti ed evita alcune delle difficoltà associate a precedenti rilassamenti. In primo luogo, f-DP conserva l’interpretazione di test d’ipotesi della privacy differenziale, il che rende le sue garanzie facilmente interpretabili. Permette un ragionamento senza perdite sulla composizione e la post-elaborazione e, in particolare, un modo diretto per analizzare l’amplificazione della privacy tramite il sottocampionamento. Definiamo una famiglia canonica a un solo parametro di definizioni all’interno della nostra classe che viene definita “Gaussian Differential Privacy”, basata sul test di ipotesi di due distribuzioni normali spostate. Dimostriamo che questa famiglia è focale alla f-DP introducendo un teorema del limite centrale, che mostra che le garanzie di privacy di qualsiasi definizione di privacy basata sul test di ipotesi (inclusa la privacy differenziale) convergono alla privacy differenziale gaussiana nel limite sotto composizione. Questo teorema del limite centrale fornisce anche uno strumento di analisi trattabile. Dimostriamo l’uso degli strumenti che sviluppiamo fornendo un’analisi migliorata delle garanzie di privacy della discesa del gradiente stocastico rumoroso.
Questo è un lavoro congiunto con Jinshuo Dong e Aaron Roth.

Questo seminario sarà trasmesso in livestreaming via Zoom https://umich.zoom.us/j/94350208889
Ci sarà un ricevimento virtuale a seguire

.