• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Pourquoi la recherche d'un mécanisme de partage de données préservant la confidentialité échoue

    Crédit :Pixabay/CC0 Domaine public

    De la banque à la communication, notre vie quotidienne moderne est guidée par les données avec des préoccupations constantes concernant la confidentialité. Maintenant, un nouvel article de l'EPFL publié dans Nature Computational Science soutient que de nombreuses promesses faites concernant les mécanismes de protection de la vie privée ne seront jamais tenues et que nous devons accepter ces limites inhérentes et ne pas poursuivre l'impossible.

    L'innovation basée sur les données sous la forme d'une médecine personnalisée, de meilleurs services publics ou, par exemple, une production industrielle plus verte et plus efficace promet d'apporter d'énormes avantages aux personnes et à notre planète et un accès généralisé aux données est considéré comme essentiel pour conduire cet avenir. Pourtant, les pratiques agressives de collecte et d'analyse des données sonnent l'alarme sur les valeurs sociétales et les droits fondamentaux.

    En conséquence, comment élargir l'accès aux données tout en préservant la confidentialité des informations personnelles sensibles est devenu l'un des défis les plus courants pour libérer le potentiel des technologies basées sur les données et un nouvel article du Security and Privacy Engineering Lab (SPRING) de l'EPFL à l'École des sciences de l'informatique et de la communication soutient que la promesse que toute utilisation de données peut être résolue à la fois dans le cadre d'une bonne utilité et de la confidentialité s'apparente à la chasse aux arcs-en-ciel.

    La responsable du laboratoire SPRING et co-auteur de l'article, la professeure adjointe Carmela Troncoso, déclare qu'il existe deux approches traditionnelles pour préserver la confidentialité :"Il existe la voie de l'utilisation de la cryptographie préservant la confidentialité, du traitement des données dans un domaine décrypté et de l'obtention d'un Mais la limite est la nécessité de concevoir des algorithmes très ciblés et de ne pas se contenter d'entreprendre des calculs génériques."

    Le problème avec ce type de technologie de préservation de la vie privée, selon l'article, est qu'elle ne résout pas l'un des problèmes clés les plus pertinents pour les praticiens :comment partager des données individuelles de haute qualité d'une manière qui préserve la confidentialité mais permet analystes pour extraire la pleine valeur d'un ensemble de données de manière très flexible.

    La deuxième voie qui tente de résoudre ce défi est l'anonymisation des données, c'est-à-dire la suppression des noms, des lieux et des codes postaux, mais, selon Troncoso, le problème réside souvent dans les données elles-mêmes. "Il existe un exemple célèbre de Netflix où la société a décidé de publier des ensembles de données et d'organiser un concours public pour produire de meilleurs algorithmes de" recommandation ". Cela a supprimé les noms des clients, mais lorsque les chercheurs ont comparé les classements de films à d'autres plates-formes où les gens évaluent les films, ils ont pu pour désanonymiser les gens."

    Plus récemment, les données synthétiques sont apparues comme une nouvelle technique d'anonymisation, mais l'article suggère que, contrairement aux promesses faites par ses partisans, elles sont soumises aux mêmes compromis vie privée/utilité que l'anonymisation traditionnelle des données. "Comme nous le disons dans notre article, les chercheurs et les praticiens doivent accepter le compromis inhérent entre une grande flexibilité dans l'utilité des données et de solides garanties en matière de confidentialité", a déclaré Theresa Stadler, assistante doctorale au SPRING Lab et co-auteur de l'article.

    "Cela pourrait bien signifier que la portée des applications basées sur les données doit être réduite et que les détenteurs de données devront faire des choix explicites sur l'approche de partage de données la plus adaptée à leur cas d'utilisation", a poursuivi Stadler.

    Un autre message clé du document est l'idée d'une diffusion plus lente et plus contrôlée de la technologie. Aujourd'hui, le déploiement ultra-rapide est la norme avec une mentalité "nous réglerons le problème plus tard" si les choses tournent mal, une approche que Troncoso considère comme très dangereuse, "Nous devons commencer à accepter qu'il y a des limites. Voulons-nous vraiment continuer ces données gratuites pour tous là où il n'y a pas de vie privée et avec de gros impacts sur la démocratie ? C'est comme le jour de la marmotte, nous en parlons depuis 20 ans et la même chose se produit maintenant avec l'apprentissage automatique. Nous avons mis des algorithmes là-bas , ils sont biaisés et l'espoir est que plus tard ils seront corrigés. Mais que se passe-t-il s'ils ne peuvent pas être corrigés ?"

    Pourtant, une fonctionnalité étroite et une confidentialité élevée ne sont pas le modèle commercial des géants de la technologie et Troncoso nous exhorte tous à réfléchir plus attentivement à la manière dont ils traitent ce problème critique.

    "Beaucoup de choses que Google et Apple font consistent essentiellement à blanchir leurs pratiques nuisibles et à fermer le marché. Par exemple, Apple ne laisse pas les applications collecter des informations, mais collecte les données elles-mêmes d'une manière dite de "préservation de la vie privée", puis vend Ce que nous disons, c'est qu'il n'y a pas de moyen de préserver la vie privée. La question est "la technologie a-t-elle empêché le système de nuire ou a-t-elle simplement rendu le système tout aussi nuisible" ? La confidentialité en soi n'est pas un objectif, la confidentialité est un moyens pour nous protéger », conclut Troncoso.

    © Science https://fr.scienceaq.com