Crédit :Wikipédia
Le fondateur de DuckDuckGo, Gabriel Weinberg, fait partie des prophètes numériques nous avertissant que Google, le Goliath qu'il défie depuis 10 ans avec son moteur de recherche sans suivi basé sur Paoli, et d'autres géants de l'information écrasent la vie privée et le contenu indépendant :« Si les gens consomment gratuitement tous les trucs de l'Inquirer sur Facebook ou Google, c'est une proposition perdante pour vous."
Découvrez ce qui est arrivé à FunnyOrDie.com, il a dit, qui « vient d'annoncer des licenciements pour la moitié du personnel. Facebook a pris leur contenu et, avec ça, leur public, les obligeant à payer pour placer leurs propres nouvelles vidéos. Et ils continuent d'augmenter le prix; c'est prohibitif. Votre contenu devient viral, et tu ne fais pas d'argent."
Mais n'est-ce pas se plaindre qu'Internet est un outil pour enrichir les magnats de la technologie aux frais de l'État, comme s'opposer au progrès ? Les algorithmes Internet qui nous disent quelles vidéos YouTube regarder ne sont-ils pas ? quels anciens camarades de classe à ami sur Facebook, et quelles célébrités portent des vêtements plus cool sur Instragram, basé sur les mathématiques, démographie et logique ?
C'est pire que "des ordures dans, les ordures, " dit Weinberg. Il raconte comment certains de ses héros, les journalistes d'investigation, travaillant pour des organisations de presse d'ancien et de nouveau style - ont trouvé "un biais important dans les algorithmes".
Voir le travail de Kashmir Hill pour Gizmodo—son retrait de « l'Internet des objets, " montrant comment les entreprises collectent et interprètent vos données à partir des appareils et services que vous payez, dans "La maison qui m'a espionné" ; et comment Google utilise son pouvoir pour annuler les idées qu'il n'aime pas.
Le gouvernement n'est pas prêt à nous protéger, Weinberg déclare :Le Congrès a autorisé l'expiration de l'ancienne interdiction faite à votre fournisseur de services Internet de vendre l'historique de votre navigateur l'année dernière. Alors Verizon, Comcast et d'autres " FAI peuvent désormais collecter et vendre vos données, sur l'endroit où vous visitez. Il s'avère qu'une grande partie n'a pas été cryptée. Les émissions Hulu n'ont pas été cryptées." Vos préférences sont plus faciles à suivre, lister et vendre.
Il est donc extrêmement inquiétant de voir comment même les agences gouvernementales exploitent les données personnelles, peu importe l'exactitude et les problèmes de confidentialité.
Voici comment cela fonctionne :les sous-traitants/consultants en informatique se présentent aux agences gouvernementales « et disent :« Votre ancien système n'est pas bon. Nous en ferons un meilleur pour vous, " dit Weinberg. " Les algorithmes ne sont souvent pas compliqués. Mais ils peuvent toujours être intrinsèquement biaisés. Et à chaque fois, il y a des conséquences imprévues."
Les applications gouvernementales de données personnelles ne sont-elles pas publiques ? Non :« Parce qu'ils obtiennent l'algorithme d'une entreprise, c'est "propriétaire". Mais il y a un argument qu'ils devraient être mis à la disposition du public, en vertu des lois sur la transparence. Les agences de presse et les avocats pro bono poursuivent donc pour obtenir les algorithmes, " Weinberg m'a dit.
Soit l'agence justifiera une nouvelle application coûteuse de traitement de données personnelles, en disant, " 'C'est de l'Intelligence Artificielle'." Comme si cela seul était une raison d'utiliser le nouvel outil. Mais c'est un outil que quelqu'un a mis en place en utilisant des informations limitées, probablement en secret, avec des conséquences inattendues mais importantes, désavantager certaines personnes, et biaiser les résultats. Cela devrait être public. "Quand vous en entendez parler, tu devrais te dire, « Peut-être que je peux découvrir ça ! » "
Weinberg admire comment ProPublica à but non lucratif a utilisé les demandes de loi sur la liberté d'information (alias droit de savoir) pour montrer comment les juges de l'État de New York "ont acheté un algorithme pour aider à formuler des suggestions de peine" qui a eu pour effet de concentrer les préjugés perçus, plutôt que de rendre les peines impartiales. Weinberg affirme que les programmes de financement public utilisant des algorithmes similaires peuvent également renforcer le caractère économique des quartiers. (Pour en savoir plus sur la façon dont la mauvaise science des données fait de mauvaises politiques publiques, Weinberg recommande le livre de Cathy O'Neil "Weapons of Math Destruction".)
J'ai posé des questions sur NeoGov, le système d'embauche numérique que la Pennsylvanie et 25 autres États sont censés utiliser pour remplacer l'ancien système d'examens d'emploi de l'État. « Cela vaut vraiment la peine de vérifier s'il n'y a pas de biais involontaire, " dit Weinberg.
Ou considérez l'impact politique de YouTube :« Son objectif est d'amener les utilisateurs à continuer à regarder des vidéos « connexes ». Celles-ci ont tendance à être extrêmes, et scandaleux et pousser les téléspectateurs vers des positions extrêmement scandaleuses. Même si ce n'est pas voulu." Comme le note Wired ici. Voir aussi le récent article du Guardian présentant les observations de l'ancien ingénieur de Google Guillame Cashlot sur "comment l'algorithme de YouTube déforme la vérité".
Comment décompresser les réseaux sociaux pour trouver ce que le vieux futuriste Vance Packard appelait des « persuadés cachés » et le professeur de droit de Columbia, Tim Wu, appelle les marchands d'attention ? « Julia Angwin a été la pionnière de ce domaine du journalisme, " en commençant par le Wall Street Journal et en passant à ProPublica, dit Weinberg. (Voir l'enquête d'Angwin sur le suivi de la collecte d'informations de Google sous le supposé mode Incognito de son navigateur Chrome.)
Voir aussi le travail d'Angwin pour le Wall Street Journal, aidé de Weinberg, qui a accordé des subventions aux journalistes pour embaucher une aide à la programmation. "Nous avons trouvé beaucoup de 'personnalisation' dans les recherches incognito, autour de sujets tels que le contrôle des armes à feu, Avortement, changement climatique. Il y avait des « mots-clés magiques » qui ajouteraient des articles de presse supplémentaires que Google a déclaré que vous aviez « recherché précédemment ».
"Il s'est avéré que 'Obama' était un mot-clé magique et que 'Romney' ne l'était pas. Il y avait des millions d'idées et d'articles Romney supplémentaires. C'était l'inverse de ce qui s'est passé lors de l'élection Trump/Clinton, " quand les vidéos de Trump ont attiré beaucoup plus d'attention que les vidéos de Clinton parce qu'elles étaient plus audacieuses et attiraient plus de téléspectateurs, en veillant à ce que davantage de vidéos Trump soient diffusées aux téléspectateurs. "Involontaire ? Mais efficace."
Angwin a également montré comment "Amazon faisait la promotion de ses propres produits par rapport aux autres, même si le prix n'est pas inférieur". Voir aussi sa série ProPublica sur le « biais machine ». le rapport d'Angwin, Weinberg dit, "a lancé plus de cela dans d'autres organisations." Des méthodes similaires peuvent être/ont été utilisées pour montrer, par exemple, ce qui ressemble à des préjugés raciaux dans les polices d'assurance citées en ligne. "Il y a aussi cette idée de facturer aux gens des prix différents en fonction de leurs données ou de leur emplacement." Sur quelles bases les assureurs automobiles, sites de voyage, les banques et les détaillants utilisent pour citer des prix plus élevés à certains lecteurs, certains plus bas ? Est-ce quelque chose d'aussi grossier qu'un code postal, aussi ténu qu'un historique de fréquentation d'un site d'achat ?
C'est la bulle de filtre, comme le web-watcher de gauche Eli Pariser a appelé le phénomène dans son livre de 2011. "Ce n'est pas équilibré, " dit Weinberg. " Vous pouvez appliquer cela à Netflix, Twitter, Youtube, Facebook, en termes de bulle filtrante individualisée et de ce qu'ils promeuvent généralement. Examinez les résultats de la recherche. Comparez les utilisateurs dans différents endroits et circonstances. Demandez :les résultats de la recherche tombent-ils ? pas assez, à travers les lignes politiques et raciales?"
Il faut du travail, mais ce n'est pas complexe, Weinberg ajoute. "Ce sont des études reproductibles. Le côté technique n'est pas trop compliqué. Lorsque vous en lisez une, vérifier les méthodologies publiées. Ils font une « exploration automatisée ». Un stagiaire de premier cycle pourrait exécuter les chiffres, n'importe quel programmeur. Peut-être prétendront-ils qu'ils sont des consommateurs remplissant un formulaire de demande en ligne, et obtenez les devis."
J'ai remarqué comment les agences de presse professionnelles empêchent généralement les journalistes de mentir sur leur identité. Mais, « Qu'y a-t-il de mal à tester différentes résidences ou revenus potentiels ? » Il a demandé.
"Quelqu'un peut toujours obtenir les données. La partie la plus difficile est d'analyser les données et de s'assurer que vous ne tirez pas de conclusion fallacieuse. Une fois que vous savez ce que vous recherchez, ce n'est pas si difficile. Il y a beaucoup d'outils disponibles. C'est intéressant, c'est important, refaire des études; c'est comme la science, cela peut s'appliquer dans de nombreux domaines." Ce qui fonctionne dans l'analyse d'Amazon fonctionnera avec votre détaillant local, trop. Et avec les grandes sociétés financières—Allstate et Nationwide, Fidélité et BlackRock, Fanatiques contre Dick's.
Weinberg cherche à parrainer des reportages plus professionnels, y compris le travail centré sur Philly. « Je suis intéressé par tous ceux qui appellent ces choses à l'ordre. Je suis intéressé par ce domaine, J'habite ici. Je suis intéressé par tout rapport sur l'analyse approfondie de ce que font les entreprises technologiques. Lié à ce que nous faisons (chez DuckDuckGo) ou non. Je pense que c'est pernicieux pour tout le monde."
©2018 The Philadelphia Inquirer
Distribué par Tribune Content Agency, LLC.