Abstract: Die Analyse von Daten unter Wahrung der Privatsphäre steht seit der Einführung der differentiellen Privatsphäre (DP) im Jahr 2006 auf einer soliden mathematischen Grundlage. Diese Definition der Privatsphäre hat jedoch einige bekannte Schwächen: insbesondere ist sie nicht in der Lage, Komposition zu behandeln. In diesem Vortrag schlagen wir eine Abschwächung der DP vor, die wir als „f-DP“ bezeichnen. Sie hat eine Reihe ansprechender Eigenschaften und vermeidet einige der Schwierigkeiten, die mit früheren Abschwächungen verbunden sind. Erstens bewahrt f-DP die Hypothesentest-Interpretation der differentiellen Privatsphäre, was ihre Garantien leicht interpretierbar macht. Es ermöglicht eine verlustfreie Argumentation über Komposition und Nachbearbeitung und vor allem einen direkten Weg, die Verstärkung der Privatsphäre durch Subsampling zu analysieren. Wir definieren eine kanonische Ein-Parameter-Familie von Definitionen innerhalb unserer Klasse, die als „Gaussian Differential Privacy“ bezeichnet wird und auf Hypothesentests von zwei verschobenen Normalverteilungen basiert. Wir beweisen, dass diese Familie fokal zu f-DP ist, indem wir einen zentralen Grenzwertsatz einführen, der zeigt, dass die Datenschutzgarantien jeder auf Hypothesentests basierenden Definition des Datenschutzes (einschließlich des differenziellen Datenschutzes) im Grenzwert der Komposition zum Gaußschen differenziellen Datenschutz konvergieren. Dieser zentrale Grenzwertsatz liefert auch ein praktikables Analysewerkzeug. Wir demonstrieren die Verwendung der von uns entwickelten Werkzeuge, indem wir eine verbesserte Analyse der Privatheitsgarantien des verrauschten stochastischen Gradientenabstiegs geben.
Dies ist eine gemeinsame Arbeit mit Jinshuo Dong und Aaron Roth.
Dieses Seminar wird per Livestream über Zoom übertragen https://umich.zoom.us/j/94350208889
Ein virtueller Empfang findet im Anschluss statt
Schreibe einen Kommentar