• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Cambridge Analytica a utilisé nos secrets à des fins lucratives – les mêmes données pourraient être utilisées pour le bien public

    Comment pourrions-nous mieux utiliser la même stratégie utilisée par Cambridge Analytica ? Crédit :AlexandraPopova/Shutterstock

    Depuis qu'il a été révélé que Cambridge Analytica avait collecté les données de 87 millions d'utilisateurs via une application Facebook qui exploitait les paramètres de confidentialité du site de réseau social, il a été suggéré que tout, de l'élection de Donald Trump aux États-Unis au résultat du référendum de l'Union européenne au Royaume-Uni, aurait pu être le résultat du pouvoir de persuasion de publicités ciblées basées sur les préférences des électeurs.

    Mais Alexandre Kogan, le chercheur de l'Université de Cambridge dont l'application de collecte de données a servi de base aux travaux ultérieurs de Cambridge Analytica pour divers groupes politiques, a semblé verser de l'eau froide sur cette idée en parlant à un comité du Sénat américain. "Les données sont totalement inefficaces, " a-t-il dit. " Si le but de Cambridge Analytica était de montrer des publicités personnalisées sur Facebook, alors ce qu'ils ont fait était stupide."

    Même si les vanteries de l'ancien PDG de Cambridge Analytica, Alexander Nix, et les déclarations du lanceur d'alerte Christopher Wylie sur l'influence de l'entreprise sont exagérées comme le prétend Kogan, la firme a néanmoins touché quelque chose avec son approche de récolte de données afin d'influencer le comportement des électeurs. Avant que cette approche ne devienne courante, nous devrions examiner toute la panique morale autour du scandale et voir quelles leçons peuvent être tirées.

    Utilisation et abus des données

    Le premier problème est notre incompréhension du consentement. La suppression des données de Kogan était peut-être contraire à l'éthique, mais il n'a pas volé les données de ceux qui utilisaient l'application – ils les ont données volontairement. Lorsque vous utilisez une plate-forme de médias sociaux, vous, par définition, publiez votre vie privée. D'autant plus, vous vendez effectivement votre vie privée sur un marché libre en donnant votre accord pour qu'elle soit monétisée par cette plateforme.

    Suite aux aveux de la directrice des opérations de Facebook, Sheryl Sandberg, nous savons maintenant que les paramètres de « confidentialité en ligne » n'existent que pour permettre aux utilisateurs de Facebook de croire qu'ils ont le droit d'un consommateur à la vie privée, alors qu'en fait ils ne sont pas le consommateur, mais le produit lui-même. Si la privatisation est un processus de transfert de propriété du domaine public au domaine privé, cela signifie que la vie privée elle-même a été privatisée. Vous publiez vos données, le rendre public, afin que les entreprises privées puissent capitaliser sur ce que ces données disent de vous en vous vendant des choses.

    Cela conduit à une situation paradoxale que j'appelle néoprivacy, suite au mépris et à l'exploitation similaires du néolibéralisme à l'égard de l'individu privé. Dans un monde néo-privé, la vie privée existe pour être exploitée financièrement. L'individu néoprivé valorise tant sa vie personnelle qu'il la publie, pourtant est si négligent de leur vie privée que, bien, ils le publient.

    Le coup de génie de Cambridge Analytica a été de combiner deux types d'ensembles de données différents, appelons-les profonds et larges. Les tests psychométriques approfondis d'un petit échantillon (de l'application de Kogan) ont été combinés avec le large comportement en ligne d'un échantillon massif. Avec cela, ils ont affirmé qu'ils pouvaient prédire le comportement des gens simplement par leurs actions sur Facebook.

    Publier des informations uniquement pour des intérêts commerciaux est une opportunité perdue. Crédits :pixinoo/Shutterstock

    L'entreprise a vendu cela aux campagnes politiques et aux lobbyistes comme leur « arme secrète ». Ce modèle montre une réelle compréhension des médias sociaux en le fondant sur les actions des gens sur Facebook - ce sur quoi ils cliquent, lire, et comme – plutôt que leurs déclarations exprimées. C'est ce que tu fais qui compte, pas ce que tu dis.

    Dividende démocratique des données

    Je pense que cette approche basée sur les données offre une opportunité démocratique. Typiquement profond, la recherche d'experts génère les preuves qui éclairent les politiques. Mais la gouvernance basée sur les données apparaît de plus en plus dissociée de la vie ordinaire, les électeurs préférant les faits qui plaisent à la foule lorsqu'il s'agit de décisions importantes. En effet, la méfiance envers les experts peut même être un facteur contribuant à la montée de ce qu'on pourrait appeler la démagocratie et les fausses nouvelles.

    En revanche, les données générales sont générées par les personnes en fonction de ce qu'elles choisissent de faire, pas ce qu'un expert leur a demandé, ou les a invités, dire. Les individus néoprivés ressentent un sentiment de propriété et d'investissement lorsqu'ils partagent quelque chose sur Facebook ou Instagram. Si quelque chose en ligne doit être récolté, c'est ce sens de la communauté, engagement social. Pourtant, notre besoin primordial d'engagement social est à la fois entravé par des experts politiques sans emprise sur la base, et monétisé par les grandes plateformes sans intérêt pour la société civile.

    La gouvernance fondée sur des preuves a été instaurée sous l'ancien Premier ministre, Tony Blair, c'était censé être une panacée aux incertitudes de la prise de décision politique. Il a échoué. En revanche, l'influence basée sur l'activité de données larges est un modèle politique qui s'est avéré terriblement efficace entre les mains de Trump. Si nous voulons réparer les démocraties, les futurs dirigeants devraient s'engager avec les deux – bien que de manière plus transparente que Cambridge Analytica ne l'a fait.

    Une dernière leçon :si nous vivons dans un monde néo-privé, pourquoi ne pourrions-nous pas monétiser nos propres vies comme l'ont fait les grandes entreprises technologiques ? Si Facebook en sait assez sur moi pour me conseiller sur le type de supports d'étagère dont j'ai besoin, pourquoi ce même niveau de perspicacité ne pourrait-il pas être appliqué à des domaines plus importants, plus technique, des décisions politiques complexes qui doivent être prises par les citoyens, à leur profit ?

    Si Cambridge Analytica peut développer des algorithmes qui sont de bons prédicteurs de notre comportement, cette information ne devrait-elle pas être utilisée pour influencer la politique ? Pourquoi les politiciens ne devraient-ils pas le récolter pour le plus grand bien plutôt que pour un gain personnel ? De nombreux théoriciens biopolitiques définissent notre époque actuelle comme celle du pouvoir par la surveillance réglementaire; il est temps que les démocraties néolibérales accèdent au pouvoir grâce à l'amélioration participative.

    Deux mondes restent un mystère absolu :les algorithmes de Facebook et pourquoi nous votons comme nous le faisons. Placez ces deux secrets dans le domaine public plutôt qu'entre les mains du plus offrant, et peut-être que la démocratie peut développer sa propre application et se réparer elle-même. C'est ce que j'appelle le néolibéralisme.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com