• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'intelligence artificielle a un problème de préjugé sexiste - il suffit de demander à Siri

    Les stéréotypes sexistes jouent dans le monde de l'intelligence artificielle. Crédits :yavi/Shutterstock

    Suggérer à l'assistant personnel virtuel de Samsung Bixby "Parlons sale", et la voix féminine répondra avec un accent mielleux :"Je ne veux pas finir sur la liste coquine du Père Noël."

    Posez la même question à la voix masculine de l'émission et elle répond "J'ai lu que l'érosion des sols est un vrai problème de saleté."

    En Afrique du sud, où je vis et mène mes recherches sur les préjugés sexistes en intelligence artificielle, Samsung propose désormais Bixby dans différentes voix en fonction de la langue que vous choisissez. Pour l'anglais américain, il y a Julia, Stéphanie, Lisa et Jean. Les voix de Julia, Lisa et Stéphanie sont coquettes et enthousiastes. John est intelligent et direct.

    Assistants personnels virtuels, tels que Bixby, Alexa (Amazon), Siri (Apple) et Cortana (Microsoft) – sont à la pointe de l'intelligence artificielle (IA) commercialisable. L'IA fait référence à l'utilisation de systèmes technologiques pour effectuer des tâches que les gens feraient habituellement.

    Ils fonctionnent comme une application sur un appareil intelligent, répondre aux commandes vocales grâce au traitement du langage naturel. Leur ubiquité à travers le monde augmente rapidement. Un récent rapport de l'UNESCO a estimé que dès l'année prochaine, nous aurons plus de conversations avec nos assistants personnels virtuels qu'avec nos conjoints.

    Encore, comme je l'ai exploré dans mes propres recherches avec le Dr Nora Ni Loideain du Information Law and Policy Centre de l'Université de Londres, ces technologies trahissent des préjugés sexistes critiques.

    Avec leurs noms féminins, voix et flirts programmés, la conception des assistants personnels virtuels reproduit les stéréotypes discriminatoires des femmes secrétaires qui, selon le stéréotype de genre, est souvent plus qu'une simple secrétaire de son patron masculin.

    Elle renforce également le rôle des femmes en tant que secondaires et soumises aux hommes. Ces assistants IA fonctionnent sur commande de leur utilisateur. Ils n'ont pas le droit de refuser ces commandes. Ils ne sont programmés que pour obéir. Discutablement, ils suscitent également des attentes quant à la façon dont les vraies femmes devraient se comporter.

    L'objectif de ces assistants est également de libérer leur utilisateur des tâches subalternes telles que la prise de rendez-vous et l'achat d'articles en ligne. C'est problématique sur au moins deux fronts :cela suggère que l'utilisateur a plus de temps pour un travail prétendument plus important. Deuxièmement, il fait une déclaration critique sur la valeur du type de travail de secrétariat effectué, d'abord par de vraies femmes et maintenant par des femmes numérisées, dans l'avenir numérique.

    "Que portez-vous?"

    L'utilisation de noms féminins est l'une des manières les plus manifestes dont ces préjugés sont évidents :Siri et Cortana, par exemple. Siri est un nom nordique signifiant "la belle femme qui vous mène à la victoire".

    Cortana tire son nom (ainsi que les visuels et la voix) de la série de jeux Halo. Dans Halo, Cortana a été créée à partir d'un clone du cerveau d'une femme scientifique à succès mariée avec un corps féminin transparent et hautement sexualisé. Elle fonctionne comme une aide fictive pour les joueurs avec son intelligence sans prétention et sa forme envoûtante.

    En plus de leurs voix féminines, tous les assistants personnels virtuels sur le marché aujourd'hui sont livrés avec une voix féminine par défaut, lequel, comme Bixby, est programmé pour répondre à toutes sortes de questions et commentaires suggestifs. Ces questions incluent :« Que portez-vous ? La réponse de Siri est "Pourquoi porterais-je quelque chose ?"

    Alexa, pendant ce temps, plaisante :« Ils ne font pas de vêtements pour moi »; et Cortana répond, "Juste un petit quelque chose que j'ai ramassé en ingénierie."

    Biais et discrimination en IA

    Il est de plus en plus reconnu que les systèmes d'IA sont souvent biaisés, en particulier selon la race et le sexe. Par exemple, le récent développement d'un algorithme de recrutement par Amazon pour trier les curriculum vitae pour les demandes d'emploi a affiché des préjugés sexistes en déclassant les curriculum vitae contenant le mot « femmes » ou faisant référence à des collèges pour femmes. Comme l'algorithme a été formé sur des données historiques et le recrutement préférentiel des mâles, il n'a finalement pas pu être réparé et a dû être abandonné.

    Comme la recherche l'a montré, il existe un lien critique entre le développement de systèmes d'IA qui affichent des préjugés sexistes et le manque de femmes dans les équipes qui les conçoivent.

    Mais il y a un peu moins de reconnaissance de la manière dont les produits d'IA intègrent des représentations stéréotypées du genre dans leur conception même. Pour AI Now, une institution de recherche de premier plan sur l'impact social de l'IA, il existe un lien clair entre l'industrie de l'IA dominée par les hommes et les systèmes et produits discriminatoires qu'elle produit.

    Le rôle des chercheurs est de rendre visibles ces connexions et de montrer les liens critiques entre les représentations des femmes, que ce soit dans les produits culturels ou technologiques, et le traitement des femmes dans le monde réel.

    L'IA est la technologie de pointe de la quatrième révolution industrielle. Il fait référence aux progrès technologiques - de la biotechnologie, à l'IA et au big data, qui refaçonnent rapidement le monde tel que nous le connaissons. Alors que l'Afrique du Sud continue de s'engager avec les promesses et les pièges de ce que cela contient, il deviendra de plus en plus important d'examiner et d'aborder comment les technologies à l'origine de ces changements peuvent affecter les femmes.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com