• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Une reconnaissance faciale moins biaisée ? Microsoft vante l'amélioration, IBM offre de l'aide

    Si une image vaut mille mots, la reconnaissance faciale en peint deux :c'est biaisé.

    Vous vous souvenez peut-être il y a quelques années que Google Photos étiquetait automatiquement les images de personnes noires comme "gorilles, " ou Flickr (propriété de Yahoo à l'époque) faisant de même et étiquetant les gens comme des "singes" ou des "animaux".

    Plus tôt cette année, les New York Times rapporté sur une étude de Joy Buolamwini, chercheur au MIT Media Lab, sur l'intelligence artificielle, algorithmes et biais :elle a découvert que la reconnaissance faciale est plus précise pour les hommes blancs, et moins précis pour les personnes à peau foncée, surtout les femmes.

    Maintenant, alors que la reconnaissance faciale est envisagée ou est utilisée par la police, aéroports, agents d'immigration et autres—Microsoft affirme avoir amélioré sa technologie de reconnaissance faciale au point de réduire jusqu'à 20 fois les taux d'erreur pour les hommes et les femmes à la peau plus foncée. Pour les femmes seules, la société affirme avoir réduit les taux d'erreur de neuf fois.

    Microsoft a apporté des améliorations en collectant plus de données et en élargissant et en révisant les ensembles de données qu'il utilisait pour former son IA.

    Extrait d'un récent article de blog d'entreprise :« Les taux d'erreur plus élevés chez les femmes à la peau plus foncée mettent en évidence un défi à l'échelle de l'industrie :les technologies d'intelligence artificielle ne sont aussi bonnes que les données utilisées pour les former. Si un système de reconnaissance faciale doit fonctionner correctement pour tout le monde, l'ensemble de données d'entraînement doit représenter une diversité de tons de peau ainsi que des facteurs tels que la coiffure, bijoux et lunettes."

    En d'autres termes, la société qui nous a amené Tay, le chatbot fou de sexe et amoureux des nazis, veut que nous sachions qu'il essaie, c'est vraiment éprouvant. (Vous vous souviendrez peut-être également que Microsoft a mis hors ligne son expérience d'IA Tay en 2016 après avoir rapidement commencé à cracher des choses folles et racistes sur Twitter, reflétant les choses qu'elle a apprises en ligne. La société a blâmé une "attaque coordonnée par un sous-ensemble de personnes" pour la corruption de Tay.)

    Dans les nouvelles connexes, IBM a annoncé qu'il publiera le plus grand ensemble de données faciales au monde aux technologues et aux chercheurs, pour aider à étudier les biais. Il publie en fait deux ensembles de données cet automne :un qui contient plus d'un million d'images, et un autre qui en a 36, 000 images faciales également réparties par ethnie, sexe et âge.

    Big Blue a également déclaré avoir amélioré son service Watson Visual Recognition pour l'analyse faciale, en diminuant son taux d'erreur de près de dix fois, plus tôt cette année.

    "L'IA détient un pouvoir important pour améliorer notre façon de vivre et de travailler, mais seulement si les systèmes d'IA sont développés et formés de manière responsable, et produire des résultats en lesquels nous avons confiance, " IBM a déclaré dans un article de blog. " S'assurer que le système est formé sur des données équilibrées, et débarrassée des préjugés, est essentiel pour obtenir une telle confiance."

    ©2018 The Mercury News (San José, Californie)
    Distribué par Tribune Content Agency, LLC.




    © Science https://fr.scienceaq.com