• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les développeurs bénéficient d'un coup de pouce open source pour la protection de la confidentialité des données

    Crédit :CC0 Domaine public

    Google a annoncé la sortie de la version open source d'une bibliothèque de confidentialité différentielle qui permet d'alimenter certains de ses propres produits.

    Google a investi dans une protection différentielle de la confidentialité, par exemple, pour évaluer la popularité d'un plat de restaurant spécifique sur Google Maps, mentionné Engagé . Désormais, l'outil pourrait aider d'autres développeurs à atteindre le niveau souhaité de protection différentielle de la confidentialité. "En publiant son outil de confidentialité différentielle maison, Google permettra à toute entreprise de renforcer plus facilement sa confidentialité de bonne foi, " mentionné Filaire .

    Sauvegarder. Qu'est-ce que la confidentialité différentielle ? C'est le jargon de la science des données. Voici comment Lily Hay Newman l'a décrit dans Filaire :Il ajoute stratégiquement du bruit aléatoire aux informations utilisateur stockées dans les bases de données afin que les entreprises puissent toujours les analyser sans pouvoir distinguer les personnes.

    Précédemment, Andy Greenberg l'avait couvert dans Filaire comme "un outil mathématique, " parvenant à extraire les données des utilisateurs tout en protégeant la confidentialité des utilisateurs. Comment ? Saisissez cet ajout de " bruit aléatoire " aux informations de la personne " avant qu'elles ne soient téléchargées sur le cloud ".

    Nick Statt dans Le bord a offert un autre instantané de la confidentialité différentielle en tant qu'« approche cryptographique de la science des données, notamment en matière d'analyse, qui permet à quelqu'un qui s'appuie sur l'analyse assistée par logiciel de tirer des enseignements d'ensembles de données volumineux tout en protégeant la confidentialité des utilisateurs. »

    En mai, Nicolas Sartor dans Cape d'air a écrit sur la façon dont cela était lié à l'anonymisation, un terme que beaucoup d'autres sont déjà familiers. « En ce qui concerne l'anonymisation des données, on rencontre inévitablement une intimité différentielle. De nombreux chercheurs en matière de protection de la vie privée le considèrent comme le « gold standard » de l'anonymisation. Des entreprises technologiques bien connues telles qu'Apple ou Google l'utilisent pour certaines analyses de données et la commercialisent pour sensibiliser le public en soulignant leur intérêt pour la protection des données."

    Quant à l'annonce de Google, Newman a rapporté ce que les développeurs obtiennent :(1) un ensemble de bibliothèques de confidentialité différentielles open source qui offrent les équations et les modèles nécessaires pour définir des limites et des contraintes sur l'identification des données et (2) une interface pour faciliter la mise en œuvre des protections par un plus grand nombre de développeurs.

    Miguel Guevara, Chef de produit, Bureau de la confidentialité et de la protection des données, a publié jeudi quelque chose sur le blog des développeurs de Google qui indique clairement que non seulement les développeurs, mais aussi les entreprises et les personnes qu'ils servent, peuvent tirer profit de solides protections de la vie privée, tandis que la bibliothèque open source a été conçue pour répondre aux besoins des développeurs.

    " Que vous soyez urbaniste, propriétaire d'une petite entreprise, ou un développeur de logiciels, obtenir des informations utiles à partir des données peut aider à améliorer le fonctionnement des services et à répondre à des questions importantes. Mais, sans protections solides de la vie privée, vous risquez de perdre la confiance de vos concitoyens, les clients, et les utilisateurs."

    Guevera a dit "De la médecine, au gouvernement, aux affaires, et au-delà, nous espérons que ces outils open source aideront à produire des informations qui profitent à tout le monde. » Guevara a donné un exemple de la façon dont l'analyse pourrait être mise en œuvre par des chercheurs en soins de santé.

    « L'analyse de données différentiellement privées... permet aux organisations d'apprendre de la majorité de leurs données tout en garantissant simultanément que ces résultats ne permettent pas de distinguer ou de réidentifier les données d'un individu... Par exemple, si vous êtes chercheur en santé, vous voudrez peut-être comparer la durée moyenne d'hospitalisation des patients dans divers hôpitaux afin de déterminer s'il existe des différences dans les soins. La confidentialité différentielle est une assurance élevée, des moyens analytiques pour s'assurer que les cas d'utilisation comme celui-ci sont traités de manière à préserver la confidentialité."

    La page GitHub a déclaré que le projet dispose « d'une bibliothèque C++ d'algorithmes -différentiellement privés, qui peut être utilisé pour produire des statistiques agrégées sur des ensembles de données numériques contenant des informations privées ou sensibles. En outre, nous fournissons un testeur stochastique pour vérifier l'exactitude des algorithmes."

    Réellement, ce testeur stochastique est ce que Aide Net Sécurité 's Zeljka Zorz s'est avéré être les choses les plus importantes à propos de la sortie. Elle a dit que c'était pour aider à repérer les problèmes et les problèmes de mise en œuvre "qui pourraient rendre la propriété de confidentialité différentielle plus valable. Cela permettra aux développeurs de s'assurer que leur mise en œuvre fonctionne comme il se doit".

    Son commentaire avait une résonance à la lumière de ce que Newman dans Filaire a déclaré à propos d'experts décourageant fortement les développeurs d'essayer de "déployer leur propre" système de confidentialité différentiel, ou en concevoir un à partir de zéro. "Google espère que son outil open source sera suffisamment facile à utiliser pour qu'il puisse être un guichet unique pour les développeurs qui pourraient autrement s'attirer des ennuis."

    CNET a cité Bryant Gipson, un responsable ingénierie chez Google, dans une interview. "L'objectif est de fournir une bibliothèque d'algorithmes principaux sur lesquels vous pouvez créer n'importe quel type de solution de confidentialité différentielle."

    © 2019 Réseau Science X




    © Science https://fr.scienceaq.com