Crédit :Hannah Moore/Université Northeastern
En réglant cinq procès différents à la fois, Facebook plus tôt cette année a promis de changer la façon dont il gère les annonces de logements, emploi, et de crédit qui s'exécutent sur sa plateforme. Les annonceurs ne pourraient plus cibler une audience par sexe, course, ou l'âge, afin de prévenir la discrimination des groupes légalement protégés.
Mais, de nouvelles recherches par une équipe d'informaticiens, dont le professeur du Nord-Est Alan Mislove, montre que l'algorithme utilisé par Facebook pour diffuser des publicités peut toujours favoriser des groupes démographiques spécifiques, malgré les changements apportés par l'entreprise.
"Pour être clair, nous n'accusons pas Facebook d'être en violation du règlement, " dit Mislove, qui est professeur d'informatique à Northeastern. "Plutôt, ce que nos recherches montrent, c'est un algorithme complexe à l'œuvre."
C'est parce que les algorithmes, Mislove dit, agissent très différemment en pratique qu'en théorie.
En théorie, en supprimant la possibilité pour les annonceurs de cibler spécifiquement les personnes par race, genre, et l'âge devrait se traduire par des audiences publicitaires qui comprennent un mélange diversifié de personnes. En pratique, L'algorithme de Facebook repose sur une myriade d'autres caractéristiques de ses utilisateurs qui servent finalement de proxy pour la race, genre, Et l'âge, Mislove dit.
Cet été, Facebook a présenté sa fonctionnalité Special Ad Audience, un outil de marketing pour les personnes faisant la promotion d'annonces offrant du crédit, emploi, ou des possibilités de logement. Alors qu'une entreprise de vêtements peut vouloir faire de la publicité directement auprès des hommes ou des femmes, les domaines du crédit, emploi, et le logement bénéficient d'une protection juridique spéciale aux États-Unis pour empêcher la discrimination.
Mislove a travaillé avec une équipe de chercheurs qui comprenait également les candidats au doctorat du Nord-Est Piotr Sapiezynski et Avijit Ghosh, étudiant de premier cycle Levi Kaplan, et un chercheur de l'organisation technologique à but non lucratif Upturn pour tester la nouvelle fonctionnalité par rapport à son prédécesseur, appelé audience similaire > .
Les chercheurs ont utilisé des données électorales accessibles au public pour créer des audiences intentionnellement biaisées par la race, genre, âge, et opinions politiques, et les a alimentés à la fois dans les outils publicitaires nouveaux et existants pour tester si l'algorithme correspondant reproduirait chaque biais.
Les résultats ont été frappants :les audiences similaires et les audiences d'annonces spéciales ont reproduit les biais démographiques.
Dans une déclaration à ProPublica, Le porte-parole de Facebook, Joe Osborne, a déclaré :"Nous sommes allés au-delà des autres pour aider à prévenir la discrimination dans les publicités en limitant le ciblage et en ajoutant de la transparence. Un annonceur déterminé à discriminer les gens peut le faire sur n'importe quel support en ligne ou hors ligne aujourd'hui, c'est pourquoi les lois existent… Nous sommes la seule plate-forme de médias numériques à apporter des changements aussi significatifs dans les publicités et nous sommes fiers de nos progrès. »
Mislove dit que les résultats illustrent la tâche difficile d'assurer l'équité des algorithmes.
"En pratique, un algorithme reçoit des millions d'entrées, dont chacun est corrélé d'autres manières à ces caractéristiques protégées, ", dit Mislove.
Des informations telles que l'endroit où vous êtes allé à l'université, où vous vivez, quelles pages vous avez « aimées » sur Facebook, et plus peuvent par inadvertance servir d'indicateurs sur votre race, genre, et l'âge - et les algorithmes conçus pour optimiser les résultats peuvent s'appuyer sur ces informations pour déterminer qui est le plus susceptible de cliquer sur une publicité.
"Les algorithmes s'en moquent, " Mislove dit. " Ils ont un objectif précis, et ils vont utiliser la combinaison de fonctionnalités qui permettra d'atteindre cet objectif ; Peu leur importe si cela signifie qu'ils ne diffusent des annonces pour des emplois technologiques qu'à des hommes blancs âgés de 18 à 24 ans."
C'est un complexe, mais problème urgent, Mislove dit, car les algorithmes sous-tendent de plus en plus nos activités quotidiennes. Les algorithmes sont utilisés pour aider à prendre des décisions concernant les soins de santé, solvabilité, emploi, condamnation pénale, itinéraires, quelle musique tu écoutes, et une gamme vertigineuse d'autres interactions quotidiennes.
Tous les acteurs de ces domaines « veulent l'efficacité des algorithmes, mais tout le monde ne réfléchit pas à la manière dont ils pourraient mal tourner, ", dit Mislove.
Quand les choses tournent mal, la solution est souvent très complexe.
"C'est très dur en ce moment, dans le sens où les identités protégées [contre lesquelles des discriminations peuvent survenir] imprègnent réellement notre société, ", dit Mislove. "Ce sera beaucoup plus difficile et beaucoup plus subtil que de simplement supprimer certaines fonctionnalités au départ."