• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Des chercheurs en intelligence artificielle améliorent la méthode d'élimination des préjugés sexistes dans les machines conçues pour comprendre et répondre aux données textuelles ou vocales

    Crédit :Pixabay/CC0 Domaine public

    Les chercheurs ont trouvé un meilleur moyen de réduire les préjugés sexistes dans les modèles de traitement du langage naturel tout en préservant des informations vitales sur la signification des mots, selon une étude récente qui pourrait être une étape clé pour résoudre le problème des préjugés humains qui se glissent dans l'intelligence artificielle.

    Bien qu'un ordinateur lui-même soit une machine impartiale, une grande partie des données et de la programmation qui transitent par les ordinateurs sont générées par des humains. Cela peut poser problème lorsque des préjugés humains conscients ou inconscients finissent par se refléter dans les échantillons de texte que les modèles d'IA utilisent pour analyser et "comprendre" le langage.

    Les ordinateurs ne sont pas immédiatement capables de comprendre un texte, explique Lei Ding, premier auteur de l'étude et étudiant diplômé au Département des sciences mathématiques et statistiques. Ils ont besoin que les mots soient convertis en un ensemble de nombres pour les comprendre, un processus appelé incorporation de mots.

    "Le traitement du langage naturel consiste essentiellement à apprendre aux ordinateurs à comprendre les textes et les langues", explique Bei Jiang, professeur associé au Département des sciences mathématiques et statistiques.

    Une fois que les chercheurs ont franchi cette étape, ils peuvent ensuite tracer des mots sous forme de nombres sur un graphique 2D et visualiser les relations des mots les uns avec les autres. Cela leur permet de mieux comprendre l'étendue du préjugé sexiste et, plus tard, de déterminer si le préjugé a été effectivement éliminé.

    Tout le sens, aucun parti pris

    Bien que d'autres tentatives pour réduire ou supprimer les préjugés sexistes dans les textes aient réussi dans une certaine mesure, le problème avec ces approches est que les préjugés sexistes ne sont pas la seule chose supprimée des textes.

    "Dans de nombreuses méthodes de réduction des préjugés sexistes, lorsqu'elles réduisent le biais dans un vecteur de mots, elles réduisent ou éliminent également des informations importantes sur le mot", explique Jiang. Ce type d'informations est connu sous le nom d'informations sémantiques, et il offre des données contextuelles importantes qui pourraient être nécessaires dans les tâches futures impliquant ces incorporations de mots.

    Par exemple, lorsqu'ils envisagent un mot comme "infirmière", les chercheurs souhaitent que le système supprime toute information sur le genre associée à ce terme tout en conservant les informations qui le relient à des mots apparentés tels que médecin, hôpital et médecine.

    "Nous devons préserver ces informations sémantiques", déclare Ding. "Sans cela, les représentations incorporées auraient de très mauvaises performances [dans les tâches et les systèmes de traitement du langage naturel]."

    Rapide, précis et équitable

    La nouvelle méthodologie a également surpassé les principales méthodes de débiaisation dans diverses tâches évaluées en fonction de l'incorporation de mots.

    Au fur et à mesure qu'elle s'affinera, la méthodologie pourrait offrir un cadre flexible que d'autres chercheurs pourraient appliquer à leurs propres incorporations de mots. Tant qu'un chercheur dispose de conseils sur le bon groupe de mots à utiliser, la méthodologie peut être utilisée pour réduire les biais liés à un groupe particulier.

    Bien qu'à ce stade, la méthodologie nécessite encore la contribution des chercheurs, Ding explique qu'il pourrait être possible à l'avenir d'avoir une sorte de système ou de filtre intégré qui pourrait automatiquement éliminer les préjugés sexistes dans une variété de contextes.

    Publié dans les Actes de la conférence AAAI sur l'intelligence artificielle , la nouvelle méthodologie fait partie d'un projet plus vaste, intitulé BIAS :IA responsable pour l'égalité des genres et des ethnies sur le marché du travail, qui cherche à résoudre des problèmes concrets.

    Par exemple, les personnes lisant la même offre d'emploi peuvent réagir différemment à des mots particuliers de la description qui ont souvent une association de genre. Un système utilisant la méthodologie créée par Ding et ses collaborateurs serait capable de signaler les mots susceptibles de modifier la perception qu'a un candidat potentiel de l'emploi ou sa décision de postuler en raison d'un préjugé sexiste perçu, et de suggérer des mots alternatifs pour réduire ce préjugé.

    Bien que de nombreux modèles et systèmes d'IA se concentrent sur la recherche de moyens d'effectuer des tâches avec plus de rapidité et de précision, Ding note que le travail de l'équipe fait partie d'un domaine en pleine croissance qui cherche à faire des progrès concernant un autre aspect important de ces modèles et systèmes.

    "Les gens se concentrent davantage sur la responsabilité et l'équité dans les systèmes d'intelligence artificielle." + Explorer plus loin

    Google prend des mesures pour lutter contre les préjugés sexistes dans la traduction




    © Science https://fr.scienceaq.com