• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Recherche :l'IA risque de devenir trop masculine

    Crédit :Shutterstock

    Les systèmes d'intelligence artificielle (IA) deviennent chaque jour plus intelligents, battre des champions du monde dans des jeux comme le go, identifier les tumeurs dans les scanners médicaux mieux que les radiologues humains, et augmenter l'efficacité des centres de données énergivores. Certains économistes comparent le potentiel de transformation de l'IA avec d'autres « technologies à usage général » telles que la machine à vapeur, l'électricité ou le transistor.

    Mais les systèmes d'IA actuels sont loin d'être parfaits. Ils ont tendance à refléter les biais des données utilisées pour les former et à s'effondrer lorsqu'ils sont confrontés à des situations inattendues. Ils peuvent être joués, comme on l'a vu avec les polémiques autour de la désinformation sur les réseaux sociaux, contenu violent posté sur YouTube, ou le fameux cas de Tay, le chatbot Microsoft, qui a été manipulé pour faire des déclarations racistes et sexistes en quelques heures.

    Alors, voulons-nous vraiment rendre ces préjugés sujets, des technologies fragiles aux fondements de l'économie de demain ?

    Minimiser les risques

    Une façon de minimiser les risques liés à l'IA est d'augmenter la diversité des équipes impliquées dans leur développement. Comme le suggèrent les recherches sur la prise de décision collective et la créativité, les groupes qui sont plus diversifiés sur le plan cognitif ont tendance à prendre de meilleures décisions. Malheureusement, c'est loin de la situation dans la communauté qui développe actuellement des systèmes d'IA. Et le manque de diversité des genres en est une dimension importante (mais pas la seule).

    Une revue publiée par l'AI Now Institute plus tôt cette année, ont montré que moins de 20% des chercheurs postulant à des conférences prestigieuses sur l'IA sont des femmes, et que seulement un quart des étudiants de premier cycle étudiant l'IA à Stanford et à l'Université de Californie à Berkeley sont des femmes.

    Les auteurs ont fait valoir que ce manque de diversité des genres entraîne des échecs de l'IA qui affectent uniquement les femmes, comme un système de recrutement d'Amazon qui s'est avéré discriminatoire à l'égard des candidats à l'emploi portant des noms féminins.

    Notre récent rapport, Diversité des genres dans la recherche en IA, impliquait une analyse « big data » de 1,5 million d'articles dans arXiv, un site Web de pré-impressions largement utilisé par la communauté de l'IA pour diffuser son travail.

    Nous avons analysé le texte des résumés pour déterminer quelles techniques d'IA appliquent, a déduit le sexe des auteurs à partir de leurs noms et a étudié les niveaux de diversité des genres dans l'IA et son évolution au fil du temps. Nous avons également comparé la situation dans différents domaines de recherche et pays, et les différences de langue entre les articles avec des co-auteurs féminins et les articles entièrement masculins.

    Notre analyse confirme l'idée qu'il existe une crise de la diversité des genres dans la recherche en IA. Seulement 13,8% des auteurs d'IA dans arXiv sont des femmes et, en termes relatifs, la proportion d'articles sur l'IA co-écrits par au moins une femme ne s'est pas améliorée depuis les années 1990.

    Il existe des différences significatives entre les pays et les domaines de recherche. Nous avons trouvé une plus forte représentation des femmes dans la recherche sur l'IA aux Pays-Bas, Norvège et Danemark, et une représentation plus faible au Japon et à Singapour. Nous avons également constaté que les femmes travaillant en physique, éducation, la biologie et les aspects sociaux de l'informatique sont plus susceptibles de publier des travaux sur l'IA que ceux travaillant en informatique ou en mathématiques.

    En plus de mesurer la diversité des genres dans le personnel de recherche en IA, nous avons également exploré les différences sémantiques entre les articles de recherche avec et sans participation des femmes. Nous avons testé l'hypothèse selon laquelle les équipes de recherche avec une plus grande diversité de genre ont tendance à augmenter la variété des problèmes et des sujets pris en compte dans la recherche en IA, rendant potentiellement leurs résultats plus inclusifs.

    Pour faire ça, nous avons mesuré la "signature sémantique" de chaque papier à l'aide d'une technique d'apprentissage automatique appelée word embeddings, et comparé ces signatures entre les articles avec au moins une femme auteur et les articles sans aucune femme auteur.

    Cette analyse, qui se concentre sur le domaine de l'apprentissage automatique et des aspects sociaux de l'informatique au Royaume-Uni, ont montré des différences significatives entre les groupes. En particulier, nous avons constaté que les articles avec au moins une co-auteure ont tendance à être plus appliqués et socialement conscients, avec des termes tels que « équité », « mobilité humaine », "mental", "santé", « genre » et « personnalité » jouent un rôle clé. La différence entre les deux groupes est cohérente avec l'idée que la diversité cognitive a un impact sur la recherche produite, et suggère que cela conduit à un engagement accru avec les problèmes sociaux.

    Comment le réparer

    Alors, qu'est-ce qui explique cet écart persistant entre les sexes dans la recherche sur l'IA, et que pouvons-nous y faire?

    La recherche montre que le manque de diversité des genres dans la science, La technologie, la main-d'œuvre en génie et en mathématiques (STEM) n'est pas causée par un seul facteur :les stéréotypes de genre et la discrimination, un manque de modèles et de mentors, une attention insuffisante à l'équilibre entre vie professionnelle et vie privée, et les environnements de travail « toxiques » dans l'industrie de la technologie se réunissent pour créer une tempête parfaite contre l'inclusion des genres.

    Il n'y a pas de solution facile pour combler l'écart entre les sexes dans la recherche sur l'IA. Des changements à l'échelle du système visant à créer des espaces sûrs et inclusifs qui soutiennent et promeuvent les chercheurs des groupes sous-représentés, un changement d'attitude et de culture dans la recherche et l'industrie, et une meilleure communication du potentiel de transformation de l'IA dans de nombreux domaines pourraient tous jouer un rôle.

    Interventions politiques, tels que l'investissement de 13,5 millions de livres sterling du gouvernement pour renforcer la diversité dans les rôles de l'IA grâce à de nouveaux cursus de conversion, contribuera à améliorer la situation, mais des interventions à plus grande échelle sont nécessaires pour créer de meilleurs liens entre les arts, sciences humaines et IA, changer l'image de qui peut travailler dans l'IA.

    Bien qu'il n'y ait pas de raison unique pour laquelle les filles arrêtent de manière disproportionnée de suivre des matières STEM au fur et à mesure qu'elles progressent dans leur éducation, il est prouvé que des facteurs tels que les stéréotypes omniprésents autour du genre et un environnement d'enseignement qui influent davantage sur la confiance des filles que des garçons jouent un rôle dans le problème. Nous devons également présenter les modèles qui utilisent l'IA pour faire une différence positive.

    Une intervention concrète visant à résoudre ces problèmes est le prix Longitude Explorer, qui encourage les élèves du secondaire à utiliser l'IA pour résoudre des problèmes sociaux et à travailler avec des modèles d'IA. Nous voulons des jeunes, en particulier les filles, pour réaliser le potentiel de l'IA pour le bien et leur rôle dans la conduite du changement.

    En renforçant les compétences et la confiance des jeunes femmes, nous pouvons changer le ratio de personnes qui étudient et travaillent dans l'IA et aider à lutter contre les biais potentiels de l'IA.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com