Crédit :Shutterstock
Après des révélations selon lesquelles le cabinet de conseil politique Cambridge Analytica se serait approprié les données des utilisateurs de Facebook pour conseiller la campagne présidentielle américaine de Donald Trump en 2016, beaucoup réclament une plus grande réglementation des réseaux de médias sociaux, disant qu'une "violation massive de données" s'est produite.
L'idée que les gouvernements peuvent réglementer leur manière de protéger la vie privée des citoyens est séduisante, mais je crois qu'il manque la cible.
Ce qui s'est passé avec Cambridge Analytica n'était pas une brèche ou une fuite. C'était une violation sauvage de l'éthique de la recherche universitaire. L'histoire se développe encore, mais un chercheur universitaire a maintenant reconnu qu'il avait collecté les données des utilisateurs de Facebook et les avait transmises à une autre entreprise.
Un universitaire et son entreprise n'ont pas réussi à protéger les données de recherche sensibles. Une université n'a pas fait assez pour l'arrêter. La réglementation de Facebook ne résoudra pas ces problèmes.
Ce que Kogan a fait de mal
Je suis professeur de politique des médias et de l'information au Quello Center de la Michigan State University, et j'ai été l'un des premiers universitaires à étudier Internet. La qualité et l'intégrité de la recherche numérique me préoccupent beaucoup.
Je pense que l'incident Cambridge Analytica-Facebook est un désastre total. Je ne pense tout simplement pas que ce soit un échec de la réglementation gouvernementale.
Voici l'histoire, du moins ce que les médias ont confirmé jusqu'à présent.
Aleksandr Kogan est un data scientist et un professeur du département de psychologie de l'Université de Cambridge. En dehors de l'université, Kogan a également collecté et analysé les données des utilisateurs de Facebook – vraisemblablement à la connaissance de Facebook – pour son entreprise Global Science Research.
Grâce à des sondages en ligne, il aurait pu recueillir des informations personnelles sensibles sur des dizaines de millions d'utilisateurs américains de Facebook, y compris les données démographiques, Messages privés, des informations sur leurs amis et peut-être même des informations sur les amis de leurs amis.
Kogan a ensuite fourni ces données à un cabinet de conseil politique, Cambridge Analytica. Selon le New York Times, la société a analysé ces informations, visant à aider à façonner les messages de la campagne Trump de 2016 et à identifier les électeurs potentiels de Trump.
Cela n'a jamais été son intention, a déclaré Kogan dans une interview à la radio de la BBC le 21 mars. Il se dit « abasourdi » que ses recherches « parfaitement légales » sur le bonheur et le bien-être des utilisateurs de Facebook aient été déployées comme un outil politique.
Ce que Facebook a fait de mal
Facebook a-t-il fait quelque chose de mal, alors? À mon avis, pas vraiment.
Facebook a déjà des directives strictes décrivant ce qui peut et ne peut pas être fait avec les données des utilisateurs, que le chercheur semble avoir violé en transmettant les données personnelles qu'il a collectées à Cambridge Analytica.
Lorsque Facebook a été lancé en 2004, il est rapidement devenu une mine d'or pour les chercheurs en sciences sociales. Soudainement, des études qui ne reposaient auparavant que sur des données d'enquête pour recueillir des informations sur les individus pouvaient observer directement comment les gens se connectaient les uns aux autres, ce qu'ils ont aimé, et ce qui liait les groupes.
Dans les premières années, l'entreprise a adopté une attitude ouverte et expérimentale envers ce type d'exploration de données, même en s'associant avec des chercheurs pour étudier comment la modification de certaines fonctionnalités des pages Facebook d'un individu a affecté la participation électorale, dire, ou ont eu un impact sur leurs humeurs.
Ces études, menées sans le consentement éclairé de ses participants – les utilisateurs de Facebook – ont été largement critiquées par les chercheurs en sciences sociales. En 2014, Facebook a renforcé ses directives existantes sur la manière dont les données des utilisateurs peuvent être collectées, analysé et utilisé.
Aujourd'hui, la société exige un examen interne approfondi de chaque demande d'extraction de données personnelles des utilisateurs à des fins de recherche.
En d'autres termes, Facebook autorégulé.
Il a peut-être été laxiste dans l'application de ses directives, bien que. La société affirme qu'une fois qu'elle a appris que Cambridge Analytica avait utilisé l'ensemble de données de Kogan à des fins non autorisées, il a insisté pour que les données soient supprimées.
Selon les rapports de presse actuels, Cambridge Analytica ne s'est pas conformée. Pour un moment, il semble, Facebook n'a rien fait pour punir l'entreprise.
Je pense que les retombées de ce scandale – y compris une enquête de la Federal Trade Commission – pousseront Facebook à prendre l'application beaucoup plus au sérieux.
Après tout, comme l'a déclaré le PDG Mark Zuckerberg dans un article sur Facebook le 21 mars, l'entreprise « a fait des erreurs » et elle « a la responsabilité de protéger » ses utilisateurs.
Le compte Facebook de Cambridge Analytica a été suspendu. Et en vertu des lois des États-Unis et du Royaume-Uni, les individus ou les entreprises accusés de divulgation non autorisée de renseignements personnels peuvent faire l'objet de poursuites.
Qu'est-ce que le milieu universitaire fait de mal
Pour moi, ce que le fiasco de Cambridge Analytica révèle, c'est que les processus d'examen éthique des universités ne sont pas encore équipés pour l'ère numérique.
Les chercheurs universitaires sont liés par des directives éthiques strictes. Partout dans le monde, en particulier au Royaume-Uni, avec ses fortes traditions de recherche sociale - les universitaires qui souhaitent étudier les attitudes ou le comportement des particuliers doivent d'abord passer un processus d'examen rigoureux. Ils doivent également obtenir explicites, consentement éclairé de ceux qui participent à leur recherche.
Il m'est impossible d'imaginer qu'un comité d'éthique de l'Université de Cambridge aurait jamais approuvé que Kogan partage ses données avec Cambridge Analytica.
Les universités du monde entier encouragent en fait les professeurs à développer des entreprises entrepreneuriales, comme Kogan l'a fait. Cela aide leurs recherches à s'étendre au-delà du campus pour favoriser l'innovation dans les entreprises, l'industrie et le gouvernement.
Mais les normes et règles qui protègent les participants à la recherche universitaire – comme le non-partage de données personnelles identifiables – ne s'arrêtent pas à la porte de l'université.
Les exploits de Kogan montrent que les emplois extérieurs des professeurs peuvent soulever des conflits d'intérêts et peuvent avoir échappé à l'examen institutionnel. Il s'agit d'un domaine de travail universitaire à l'embauche que les universités doivent examiner en vue de mettre à jour la façon dont elles appliquent l'éthique de la recherche.
J'ai informé des comités d'examen institutionnel dans un certain nombre d'universités, et je peux attester que les membres ne comprennent souvent pas comment Internet a transformé la façon dont les données sont créées, recueillies, analysés et partagés sur Internet et les réseaux sociaux.
Souvent, les autorités qui accordent aux professeurs et aux étudiants l'autorisation de mener leurs études sont ancrées dans les normes de la recherche médicale, pas les sciences sociales modernes.
De nombreuses écoles ne parviennent généralement pas à comprendre à quel point certains domaines académiques sont devenus à la pointe de la technologie. Les mégadonnées et l'analyse informatique sont aujourd'hui l'un des domaines scientifiques les plus innovants.
Légitime, l'accès approuvé par l'entreprise aux données des utilisateurs des médias sociaux permet aux chercheurs d'étudier certains des problèmes les plus urgents du 21e siècle, y compris les fausses nouvelles, chambres d'écho politiques et tendances technologiques. Il n'est donc pas surprenant que les campagnes politiques veuillent s'approprier ces pratiques de recherche.
Jusqu'à ce qu'ils proposent de nouvelles règles, Je crains que le manque de connaissances numériques des universités ne reste une menace pour la confidentialité en ligne.
Cet article a été initialement publié sur The Conversation. Lire l'article original.