• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • La nouvelle fracture numérique se situe entre les personnes qui refusent les algorithmes et les personnes qui ne

    Savez-vous ce qui se passe lorsque vous partagez vos données ? Crédits :mtkang/shutterstock.com

    Chaque aspect de la vie peut être guidé par des algorithmes d'intelligence artificielle - du choix de l'itinéraire à emprunter pour votre trajet du matin, pour décider qui emmener à un rendez-vous, à des questions juridiques et judiciaires complexes telles que la police prédictive.

    Les grandes entreprises technologiques comme Google et Facebook utilisent l'IA pour obtenir des informations sur leur gigantesque trésor de données clients détaillées. Cela leur permet de monétiser les préférences collectives des utilisateurs grâce à des pratiques telles que le micro-ciblage, une stratégie utilisée par les annonceurs pour cibler étroitement des ensembles spécifiques d'utilisateurs.

    En parallèle, de nombreuses personnes font désormais davantage confiance aux plateformes et aux algorithmes qu'à leurs propres gouvernements et à la société civile. Une étude d'octobre 2018 a suggéré que les gens démontrent « une appréciation des algorithmes, " dans la mesure où ils s'appuieraient davantage sur les conseils lorsqu'ils pensent qu'il s'agit d'un algorithme que d'un humain.

    Autrefois, les experts en technologie se sont inquiétés d'une "fracture numérique" entre ceux qui pouvaient accéder aux ordinateurs et à Internet et ceux qui ne le pouvaient pas. Les ménages ayant moins accès aux technologies numériques sont désavantagés dans leur capacité à gagner de l'argent et à accumuler des compétences.

    Mais, à mesure que les appareils numériques prolifèrent, la fracture n'est plus seulement une question d'accès. Comment les gens gèrent-ils la surcharge d'informations et la pléthore de décisions algorithmiques qui imprègnent tous les aspects de leur vie ?

    Les utilisateurs les plus avertis s'éloignent des appareils et prennent conscience de la façon dont les algorithmes affectent leur vie. Pendant ce temps, les consommateurs qui ont moins d'informations s'appuient encore plus sur des algorithmes pour guider leurs décisions.

    La sauce secrète derrière l'intelligence artificielle

    La principale raison de la nouvelle fracture numérique, à mon avis en tant que personne qui étudie les systèmes d'information, est que si peu de gens comprennent comment fonctionnent les algorithmes. Pour une majorité d'utilisateurs, les algorithmes sont vus comme une boîte noire.

    Les algorithmes d'IA prennent en charge les données, les adapter à un modèle mathématique et émettre une prédiction, allant des chansons que vous pourriez apprécier au nombre d'années que quelqu'un devrait passer en prison. Ces modèles sont développés et modifiés en fonction des données passées et du succès des modèles précédents. La plupart des gens – même parfois les concepteurs d'algorithmes eux-mêmes – ne savent pas vraiment ce qui se passe à l'intérieur du modèle.

    Les chercheurs se préoccupent depuis longtemps de l'équité algorithmique. Par exemple, L'outil de recrutement basé sur l'IA d'Amazon s'est avéré rejeter les candidatures féminines. Le système d'Amazon extrayait de manière sélective des mots implicitement sexués - des mots que les hommes sont plus susceptibles d'utiliser dans le discours de tous les jours, tels que « exécuté » et « capturé ».

    D'autres études ont montré que les algorithmes judiciaires sont biaisés racialement, condamner les pauvres accusés noirs plus longtemps que les autres.

    Dans le cadre du règlement général sur la protection des données récemment approuvé dans l'Union européenne, les gens ont "un droit à l'explication" des critères que les algorithmes utilisent dans leurs décisions. Cette législation traite le processus de prise de décision algorithmique comme un livre de recettes. L'idée est que si vous comprenez la recette, vous pouvez comprendre comment l'algorithme affecte votre vie.

    Pendant ce temps, certains chercheurs en IA ont poussé pour des algorithmes justes, responsable et transparent, ainsi qu'interprétable, ce qui signifie qu'ils doivent arriver à leurs décisions à travers des processus que les humains peuvent comprendre et faire confiance.

    Faut-il rester connecté ou débrancher ? Crédits :pryzmat/shutterstock.com

    Quel effet aura la transparence ? Dans une étude, les étudiants ont été notés par un algorithme et ont proposé différents niveaux d'explication sur la façon dont les scores de leurs pairs ont été ajustés pour obtenir une note finale. Les étudiants avec des explications plus transparentes faisaient en fait moins confiance à l'algorithme. Cette, de nouveau, suggère une fracture numérique :la conscience algorithmique ne conduit pas à une plus grande confiance dans le système.

    Mais la transparence n'est pas une panacée. Même lorsque le processus global d'un algorithme est esquissé, les détails peuvent encore être trop complexes à comprendre pour les utilisateurs. La transparence n'aidera que les utilisateurs suffisamment sophistiqués pour saisir les subtilités des algorithmes.

    Par exemple, en 2014, Ben Bernanke, l'ancien président de la Réserve fédérale, s'est d'abord vu refuser un refinancement hypothécaire par un système automatisé. La plupart des personnes qui demandent un tel refinancement hypothécaire ne comprendraient pas comment les algorithmes pourraient déterminer leur solvabilité.

    Se retirer du nouvel écosystème de l'information

    Alors que les algorithmes influencent tellement la vie des gens, seule une infime fraction des participants est suffisamment sophistiquée pour s'impliquer pleinement dans la façon dont les algorithmes affectent leur vie.

    Il n'y a pas beaucoup de statistiques sur le nombre de personnes qui connaissent les algorithmes. Des études ont trouvé des preuves d'anxiété algorithmique, conduisant à un profond déséquilibre de pouvoir entre les plateformes qui déploient des algorithmes et les utilisateurs qui en dépendent.

    Une étude sur l'utilisation de Facebook a révélé que lorsque les participants ont été informés de l'algorithme de Facebook pour la conservation des fils d'actualité, environ 83 % des participants ont modifié leur comportement pour essayer de tirer parti de l'algorithme, tandis qu'environ 10 % ont diminué leur utilisation de Facebook.

    Un rapport de novembre 2018 du Pew Research Center a révélé qu'une grande majorité du public était très préoccupée par l'utilisation d'algorithmes pour des usages particuliers. Il a révélé que 66% pensaient qu'il ne serait pas juste que les algorithmes calculent les scores de finances personnelles, tandis que 57% ont dit la même chose à propos de la sélection automatisée des CV.

    Une petite fraction des individus exerce un certain contrôle sur la façon dont les algorithmes utilisent leurs données personnelles. Par exemple, la plate-forme Hu-Manity permet aux utilisateurs de contrôler la quantité de leurs données collectées. L'encyclopédie en ligne Everipedia offre aux utilisateurs la possibilité d'être partie prenante du processus de curation, ce qui signifie que les utilisateurs peuvent également contrôler la manière dont les informations leur sont agrégées et présentées.

    Cependant, une grande majorité de plates-formes n'offrent ni une telle flexibilité à leurs utilisateurs finaux ni le droit de choisir comment l'algorithme utilise leurs préférences pour organiser leur fil d'actualité ou leur recommander du contenu. S'il y a des options, les utilisateurs peuvent ne pas les connaître. Environ 74% des utilisateurs de Facebook ont ​​déclaré dans un sondage qu'ils ne savaient pas comment la plate-forme caractérisait leurs intérêts personnels.

    À mon avis, la nouvelle littératie numérique n'utilise pas d'ordinateur ou n'est pas sur Internet, mais comprendre et évaluer les conséquences d'un mode de vie toujours branché.

    Ce mode de vie a un impact significatif sur la façon dont les gens interagissent avec les autres; sur leur capacité à prêter attention aux nouvelles informations; et sur la complexité de leurs processus décisionnels.

    L'augmentation de l'anxiété algorithmique peut également être reflétée par des changements parallèles dans l'économie. Un petit groupe d'individus profite des avantages de l'automatisation, alors que de nombreux travailleurs sont dans une situation précaire.

    Se retirer de la curation algorithmique est un luxe – et pourrait un jour être un symbole de richesse accessible à seulement quelques privilégiés. La question est alors de savoir quels seront les dommages mesurables pour ceux qui se trouvent du mauvais côté de la fracture numérique.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com