Crédit :Shutterstock
Facebook a récemment annoncé des restrictions drastiques d'accès aux données sur son application et son site Web. La société a présenté le verrouillage comme une tentative de protéger les informations des utilisateurs, en réponse au tollé général qui a suivi le scandale de Cambridge Analytica.
Mais la décision est conforme aux restrictions croissantes imposées aux chercheurs qui étudient Facebook et son application de partage de photos Instagram, qui a également commencé à restreindre immédiatement l'accès à ses données le 4 avril.
En réalité, plusieurs limitations ont été mises en place en février de cette année, avant que le fiasco de Cambridge Analytica – dans lequel des données auraient été récoltées à partir de 50 millions de profils Facebook – n'éclate publiquement. API de Facebook, version 2.5, devait prendre sa retraite ce mois-ci, en empêchant, entre autres, l'accès à l'identifiant des utilisateurs participant à des forums publics.
Les réseaux sociaux offrent deux points d'entrée principaux pour la collecte de données :ils fonctionnent comme des interfaces pour les utilisateurs et des interfaces logicielles conçues pour être consommées par des programmes informatiques, connu sous le nom d'interfaces de programmation d'applications (API).
Alors que les API sont destinées aux programmeurs qui créent des applications qui s'ajoutent à l'écosystème croissant de services offerts par les réseaux sociaux, les chercheurs ont également exploité ces interfaces pour étudier le comportement social en ligne.
Compte tenu de la taille gigantesque de la base d'utilisateurs de Facebook (2,13 milliards au dernier décompte), l'examen externe du contenu sur le réseau social est extrêmement important. Dans les années récentes, cependant, les chercheurs ont mené une bataille acharnée avec l'entreprise pour fournir un accès aux données. Maintenant, sa dernière décision a rendu pratiquement impossible la réalisation de recherches à grande échelle sur Facebook.
Les changements rendent obsolètes les logiciels et bibliothèques dédiés à la recherche académique sur Facebook, y compris netvizz, NodeXL, SocialMediaLab, fb_scrape_public et Rfacebook, qui reposaient tous sur les API de Facebook pour collecter des données.
La recherche systématique sur le contenu de Facebook est désormais intenable, transformer ce qui était déjà une opacité inquiétante, le réseau social en silos dans une boîte noire qui est sans doute encore moins responsable envers les législateurs et le public - qui ont tous deux bénéficié d'universitaires qui ont surveillé les développements sur le site.
Deen Freelon, le développeur de fb_scrape_public qui analyse les gros, des ensembles de données accessibles au public sur Facebook, nous a dit par e-mail que "la décision de restreindre l'accès à l'API Pages pourrait gravement nuire à la recherche Facebook basée sur le contenu à l'avenir, selon la volonté de Facebook d'approuver l'accès. S'il n'approuve pas l'accès à la plupart des fins de recherche, cela pourrait inciter les chercheurs à gratter Facebook directement, qui viole ses conditions d'utilisation. » Le grattage ou la collecte de données est une méthode par laquelle un programme informatique extrait des informations à partir de pages Web.
Bernhard Rieder, un professeur agrégé de l'Université d'Amsterdam qui a développé netvizz - un outil qui extrait des données de Facebook à des fins de recherche - estime que cette décision est une conséquence du niveau d'accès illimité accordé à quiconque jusqu'en 2015 et qu'"il existe une réelle possibilité que ces les services seront de plus en plus impénétrables et inobservables".
Jusqu'à il y a trois ans, Facebook a autorisé les applications tierces à accéder aux données sur les amis des utilisateurs de l'application. C'est cette fonction qui a été utilisée par Aleksandr Kogan, chercheur à l'Université de Cambridge.
Kogan – à travers sa startup Global Science Research, qui était distinct de son travail universitaire - aurait collecté des informations de profil auprès de 270, 000 utilisateurs de Facebook et des dizaines de millions de leurs amis utilisent une application de test de personnalité appelée "thisisyourdigitallife". Il est allégué que Cambridge Analytica a utilisé ces données pour tenter de cibler des campagnes politiques, notamment l'élection présidentielle américaine de 2016.
Marc Smith, qui a dirigé l'équipe Microsoft qui a créé NodeXL, qui analyse les données des réseaux sociaux, nous a dit qu'il y avait une opportunité de repenser les réseaux sociaux que les gens choisissent d'utiliser à la lumière du scandale des données.
Pourquoi les API sont importantes
Les API permettent aux chercheurs de récupérer des données à grande échelle et de gérer des bases de données associées à des événements significatifs. Sans eux, les interfaces web doivent être grattées pour accéder aux données, ce qui demande beaucoup de travail et limite considérablement la quantité d'informations pouvant être collectées et traitées.
Le verrouillage des chercheurs hors des API les contraint à des moyens de collecte de données à forte intensité humaine qui ne peuvent pas produire d'échantillons représentatifs d'événements du monde réel, comme les mouvements sociaux, élections et campagnes de désinformation.
Twitter exploite trois bien documentés, des API publiques en plus de ses offres premium et entreprise. L'accessibilité relative de Twitter le conduit à être largement surreprésenté dans la recherche sur les médias sociaux. Mais les API publiques et ouvertes sont une exception dans l'écosystème des médias sociaux. API de flux public de Facebook, par exemple, est limité à un ensemble limité d'éditeurs de médias.
Verrouillage des données
Le verrouillage de l'API de Facebook creusera le fossé entre les chercheurs de l'industrie embauchés par les réseaux sociaux et les chercheurs travaillant en dehors des entreprises. Il s'agit d'un fossé caractérisé par l'écart entre les « chercheurs riches en mégadonnées », qui ont accès à des données exclusives et pourraient ne travailler que dans l'intérêt de l'entreprise à laquelle ils sont affiliés, et les « mégadonnées pauvres » ou le vaste univers des chercheurs universitaires.
La décision de Facebook élargit considérablement ce pool de « big data pauvres ». It limits research to projects sponsored by the network and potentially jeopardises research that is critical of Facebook.
Shortly after the decision to drastically limit API access, Facebook vowed to help researchers gain access to social media data of public interest, starting with elections. The announcement was met with a mix of celebration and subdued support from researchers.
Luca Rossi, who is associate professor at the IT University of Copenhagen, cautioned that the "data sharing model proposed by Facebook is deeply problematic and it will probably reinforce existing differences in terms of data access". The restriction is likely to continue the trend of researchers doing research they are able to as opposed to research they deem important.
Good news for research on the relationship between social media and society ( especially politics) - Facebook and funding foundations to set up a new model for industry- academic partnerships including third party scrutiny and peer review https://t.co/87gZm5PyIO
— Helen Margetts (@HelenMargetts) April 9, 2018
Fascinating how #Facebook has such a high barrier of access to its data for legitimate research purposes (a good thing) https://t.co/9ZcI4tyrS2 &yet allowed its system to be mined for data, weaponised &monetised by 3rd parties with just good coding skills &API access.
— Sanjana Hattotuwa (@sanjanah) April 9, 2018
I'm concerned that the right people are not at the table in terms decision making power and centering the most vulnerable people for research agendas. I'd love to be wrong about this. https://t.co/QiKsSf3ZRB
— Jill Dimond (@jpdimond) April 9, 2018
The impact on data science education is also considerable. If researchers are unable to access data from social networks, they will be unable to train students in data science, social science, computer sciences and digital humanities on methods of data collection and analysis that are rigorous, critical and ethical.
Facebook's decision to render the API useless for meaningful research is a regrettable departure for collaboration between the social network giant and academics and it's already having an impact.
The Events API, which researchers relied on to retrieve information about public events such as demonstrations, no longer permits access to users or posts on the event wall.
Facebook's Groups API and Pages API were the endpoints researchers queried to study public discussions on Facebook, but the recent policy shift seals off those online conversations by restricting access to posts, comments or members participating in a public page or group.
The changes made to Instagram's API are even more radical, with Facebook deciding to deprecate the API – a technical term for killing data access altogether.
Nasty side effect
Facebook's decision to restrict researchers is ironic because academics have long discussed the problems that led to the Cambridge Analytica scandal. Rieder wrote about the risks of Facebook API's wide open data door back in 2013.
He cautioned against how much data a third-party app could get from Facebook. Facebook, cependant, ignored those concerns until 2015, when management and policies regulating the sharing of Facebook data took a sharp turn and became increasingly more restrictive for researchers.
Depuis, Facebook has become increasingly more cautious about external scrutiny. In the wake of the Cambridge Analytica scandal, Facebook CEO Mark Zuckerberg told Wired that the feedback it received was that "having the data locked down is more important to people than having different kinds of experiences".
The public uproar clearly underscores how users' data was poorly handled, but a lockdown is hardly the solution to a problem rooted in the weaponisation of social networks, where people use Facebook, Twitter and so on to spread disinformation.
The Cambridge Analytica scandal has created a worrying side effect:restricting access to data is likely to facilitate further weaponisation, by turning Facebook into a de facto black box that is largely unaccountable to external oversight.
Cet article a été initialement publié sur The Conversation. Lire l'article original.