La vie privée différentielle consiste à utiliser des outils mathématiques pour anonymiser totalement une base de donnée. Aujourd’hui, les bases contiennent des millions de données sur des millions de personnes et le problème est que les algorithmes de prédiction peuvent être biaisés si les données sont biaisés. On anonymise déjà les données en supprimant les éléments identifiables, mais la vie privée différentielle propose une formulation mathématique qui garantit cet anonymat. Si on ajoute ou on enlève des personnes dans la base de donnée, alors cela ne changera pas le résultat.
En termes simples, la vie privée différentielle implique que lorsqu’on regarde les résultats de données, on ne peut pas remonter jusqu’aux éléments identifiables des individus qui composent la base de donnée. Le concept est vraiment intéressante, mais il reste à les implémenter en pratique.
https://privacytools.seas.harvard.edu/differential-privacy