• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Même les algorithmes informatiques peuvent être biaisés. Les scientifiques ont des idées différentes sur la façon d'éviter cela

    Crédit :CC0 Domaine public

    Les scientifiques disent qu'ils ont développé un cadre pour rendre les algorithmes informatiques "plus sûrs" à utiliser sans créer de préjugés basés sur la race, le sexe ou d'autres facteurs. L'astuce, ils disent, est de permettre aux utilisateurs d'indiquer à l'algorithme les types de pièges à éviter, sans avoir à en savoir beaucoup sur les statistiques ou l'intelligence artificielle.

    Avec cette garantie en place, hôpitaux, les entreprises et autres utilisateurs potentiels qui pourraient hésiter à utiliser l'apprentissage automatique pourraient trouver un outil plus agréable pour les aider à résoudre des problèmes, selon un rapport dans l'édition de cette semaine du journal Science .

    Les algorithmes informatiques sont utilisés pour prendre des décisions dans une gamme de paramètres, des salles d'audience aux écoles en passant par les sites d'achat en ligne. Les programmes trient d'énormes quantités de données à la recherche de modèles utiles pouvant être appliqués aux décisions futures.

    Mais les chercheurs sont aux prises avec un problème qui devient de plus en plus difficile à ignorer :bien que les programmes soient automatisés, ils fournissent souvent des résultats biaisés.

    Par exemple, un algorithme utilisé pour déterminer les peines de prison prédit des taux de récidive plus élevés pour les accusés noirs reconnus coupables de crimes et un risque plus faible pour les blancs. Ces prédictions se sont avérées fausses, selon une analyse ProPublica.

    De tels biais proviennent souvent du monde réel. Un algorithme utilisé pour déterminer quels patients étaient éligibles à un programme de coordination des soins de santé sous-enrôlait les patients noirs en grande partie parce que le code reposait sur des données de dépenses de santé réelles – et les patients noirs dépensaient moins d'argent que les blancs.

    Même si l'information elle-même n'est pas biaisée, les algorithmes peuvent toujours produire des résultats injustes ou d'autres « résultats indésirables, " dit Philippe Thomas, chercheur en intelligence artificielle à l'Université du Massachusetts Amherst et auteur principal de la nouvelle étude.

    Trier quels processus pourraient être à l'origine de ces résultats injustes, puis les réparer, peut être une tâche écrasante pour les médecins, hôpitaux ou d'autres utilisateurs potentiels qui veulent simplement un outil qui les aidera à prendre de meilleures décisions.

    « Ce sont des experts dans leur domaine, mais peut-être pas en apprentissage automatique. Nous ne devrions donc pas nous attendre à ce qu'ils aient une connaissance détaillée du fonctionnement des algorithmes afin de contrôler le comportement des algorithmes, ", a déclaré Thomas. "Nous voulons leur donner une interface simple pour définir un comportement indésirable pour leur application, puis nous assurer que l'algorithme évitera ce comportement avec une forte probabilité."

    Les informaticiens ont donc développé un type d'algorithme différent qui a permis aux utilisateurs de définir plus facilement quel mauvais comportement ils voulaient que leur programme évite.

    Cette, bien sûr, rend le travail des concepteurs d'algorithmes plus difficile, Thomas a dit, car ils doivent construire leur algorithme sans savoir quels biais ou autres comportements problématiques l'utilisateur éventuel ne voudra pas dans le programme.

    "Au lieu, ils doivent rendre l'algorithme suffisamment intelligent pour comprendre ce que l'utilisateur dit être un comportement indésirable, puis raisonner tout seul sur ce qui causerait ce comportement, et ensuite l'éviter avec une forte probabilité, " dit-il. " Cela rend l'algorithme un peu plus compliqué, mais beaucoup plus facile pour les gens à utiliser de manière responsable."

    Pour tester leur nouveau framework, les chercheurs l'ont essayé sur un ensemble de données de résultats d'examen d'entrée pour 43, 303 étudiants brésiliens et les moyennes cumulatives qu'ils ont obtenues au cours de leurs trois premiers semestres à l'université.

    Les algorithmes standard qui tentaient de prédire la moyenne cumulative d'un étudiant en fonction de ses résultats à l'examen d'entrée étaient biaisés contre les femmes :les notes qu'ils prédisaient pour les femmes étaient inférieures à ce qui était réellement le cas, et les notes qu'ils prédisaient pour les hommes étaient plus élevées. Cela a causé un écart d'erreur entre les hommes et les femmes qui était en moyenne de 0,3 point GPA, suffisamment pour faire une différence majeure dans les perspectives d'admission d'un étudiant.

    Le nouvel algorithme, d'autre part, a réduit cette plage d'erreurs à moins de 0,05 point GPA, ce qui en fait un prédicteur beaucoup plus juste de la réussite des élèves.

    Les informaticiens ont également testé leur cadre sur des données simulées pour les patients diabétiques. Ils ont découvert qu'il pouvait ajuster les doses d'insuline d'un patient plus efficacement qu'un algorithme standard, ce qui entraîne beaucoup moins d'épisodes indésirables d'hypoglycémie.

    Mais d'autres ont remis en question la nouvelle approche.

    Dr Léo Anthony Celi, un intensiviste au Beth Israel Deaconess Medical Center et chercheur au MIT, a fait valoir que le meilleur moyen d'éviter les biais et autres problèmes est de garder les experts en apprentissage automatique au courant tout au long du processus plutôt que de limiter leur contribution aux étapes de conception initiales. De cette façon, ils peuvent voir si un algorithme se comporte mal et apporter les correctifs nécessaires.

    "Il n'y a tout simplement aucun moyen de contourner cela, " dit Céli, qui a aidé à développer un programme d'intelligence artificielle pour améliorer les stratégies de traitement des patients atteints de sepsis.

    De même, utilisateurs de première ligne tels que les médecins, les infirmières et les pharmaciens devraient jouer un rôle plus actif dans le développement des algorithmes sur lesquels ils s'appuient, il a dit.

    Les auteurs de la nouvelle étude ont rapidement souligné que leur cadre était plus important que les algorithmes qu'ils ont générés en l'utilisant.

    "Nous ne disons pas que ce sont les meilleurs algorithmes, " a déclaré Emma Brunskill, un informaticien à l'Université de Stanford et l'auteur principal de l'article. "Nous espérons que d'autres chercheurs de leurs propres laboratoires continueront à créer de meilleurs algorithmes."

    Brunskill a ajouté qu'elle aimerait que le nouveau cadre encourage les gens à appliquer des algorithmes à un plus large éventail de problèmes de santé et sociaux.

    Le nouveau travail est sûr de susciter le débat - et peut-être des conversations plus nécessaires entre les communautés de la santé et de l'apprentissage automatique, dit Céli.

    "Si cela amène les gens à avoir plus de discussions, alors je pense que c'est utile, " il a dit.

    ©2019 Los Angeles Times
    Distribué par Tribune Content Agency, LLC.




    © Science https://fr.scienceaq.com