Abstract: Privacy-preserving data analysis has been put on a firm mathematical foundation since the introduction of differential privacy (DP) in 2006. Ta definicja prywatności ma jednak pewne dobrze znane słabości: w szczególności, nie radzi sobie ściśle z kompozycją. W tym wykładzie proponujemy rozluźnienie DP, które nazywamy „f-DP”, które ma wiele atrakcyjnych własności i pozwala uniknąć niektórych trudności związanych z wcześniejszymi rozluźnieniami. Po pierwsze, f-DP zachowuje interpretację testowania hipotez dla prywatności różnicowej, co czyni jej gwarancje łatwo interpretowalnymi. Pozwala ona na bezstratne rozumowanie o kompozycji i postprocessingu, a w szczególności na bezpośredni sposób analizy wzmocnienia prywatności przez podpróbkowanie. Definiujemy kanoniczną, jednoparametrową rodzinę definicji w ramach naszej klasy, którą nazywamy „Gaussian Differential Privacy”, opartą na testowaniu hipotez dwóch przesuniętych rozkładów normalnych. Udowodnimy, że ta rodzina jest zogniskowana na f-DP poprzez wprowadzenie centralnego twierdzenia granicznego, które pokazuje, że gwarancje prywatności każdej definicji prywatności opartej na testowaniu hipotez (w tym prywatności różnicowej) zbiegają się do Gaussian Differential Privacy w granicy pod kompozycją. To centralne twierdzenie graniczne dostarcza również praktycznego narzędzia analitycznego. Demonstrujemy użycie narzędzi, które rozwijamy, dając ulepszoną analizę gwarancji prywatności hałaśliwego stochastycznego zejścia gradientowego.
Jest to wspólna praca z Jinshuo Dong i Aaronem Roth.

Seminarium będzie transmitowane na żywo przez Zoomhttps://umich.zoom.us/j/94350208889
Po seminarium odbędzie się wirtualne przyjęcie

.