• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Un rapport des chiens de garde de l'IA déchire la technologie des émotions

    Crédit :CC0 Domaine public

    L'opinion qui affecte la reconnaissance devrait être bannie des décisions importantes ressemble à un cri de colère... mais qu'est-ce que tout cela signifie ? La conversation s'échauffe, réellement, sur l'impact de l'intelligence artificielle sur notre vie quotidienne d'une manière qui suscite autant d'inquiétudes que d'émerveillement.

    "Affecter la reconnaissance." Dans le jargon technologique, il s'agit d'un sous-ensemble de la reconnaissance faciale. La reconnaissance d'affect est une question d'IA émotionnelle, et il s'agit d'intelligence artificielle mise à contribution pour analyser des expressions dans le but d'identifier l'émotion humaine.

    Interpréter les expressions sur votre visage ? Dans quelle mesure ces interprétations sont-elles solides ?

    Dans un centre de recherche de l'Université de New York, un rapport rappelle à ses lecteurs que ce n'est pas la meilleure façon de comprendre ce que ressentent les gens. Le point de vue du rapport est que, clair et simple, Il ne faut pas supposer que l'IA détectant les émotions est capable de passer des appels importants dans des situations pouvant avoir un impact sérieux sur les personnes :dans le recrutement, dans le suivi des élèves en classe, dans le service client et enfin, mais à peine moins, en justice pénale.

    Il était nécessaire d'examiner pourquoi les entités utilisent une technologie défectueuse pour évaluer le caractère sur la base de l'apparence physique en premier lieu. Ceci est particulièrement préoccupant dans des contextes tels que l'emploi, éducation, et la justice pénale.

    L'AI Now Institute de l'Université de New York a publié le Rapport AI Now 2019 . L'institut se concentre sur les implications sociales de l'intelligence artificielle. L'institut note que les systèmes d'IA devraient disposer de garanties ou de structures de responsabilité appropriées, et l'institut émet des inquiétudes là où ce n'est peut-être pas le cas.

    Leur rapport 2019 examine l'utilisation commerciale de l'analyse de l'expression telle qu'elle se présente actuellement dans la prise de décisions.

    Reuters a souligné qu'il s'agissait du quatrième rapport annuel d'AI Now sur les outils d'IA. L'évaluation examine les risques d'une technologie d'IA potentiellement nocive et son impact humain.

    En ce qui concerne le rapport de l'Institut, la reconnaissance de l'affect a été "un sujet de préoccupation croissante en 2019 - non seulement parce qu'elle peut coder des biais, mais parce qu'il manque de bases scientifiques solides pour garantir des résultats précis ou même valides. »

    Le rapport avait un libellé fort :« Les régulateurs devraient interdire l'utilisation de la reconnaissance des affects dans les décisions importantes qui ont un impact sur la vie des gens et l'accès aux opportunités. Jusque-là, Les entreprises d'IA devraient arrêter de le déployer. »

    Les auteurs ne se livrent pas seulement à des questions personnelles; avis; ils ont examiné la recherche.

    « Étant donné les fondements scientifiques contestés de la technologie de reconnaissance des émotions, une sous-classe de la reconnaissance faciale qui prétend détecter des éléments tels que la personnalité, émotions, santé mentale, et d'autres États intérieurs - il ne devrait pas être autorisé à jouer un rôle dans les décisions importantes concernant les vies humaines, comme qui est interviewé ou embauché pour un emploi, le prix de l'assurance, évaluations de la douleur des patients, ou la performance des élèves à l'école.

    Le rapport est allé encore plus loin et a déclaré que les gouvernements devraient « spécifiquement interdire l'utilisation de la reconnaissance de l'affect dans les processus décisionnels à enjeux élevés ».

    Le bord James Vincent ne serait pas surpris de cette découverte. De retour en juillet, il a rendu compte de recherches portant sur les défaillances de la technologie pour lire avec précision les émotions à travers les expressions faciales; tout simplement, vous ne pouvez pas faire confiance à l'IA pour le faire. Il a cité un professeur de psychologie à la Northeastern University. "Les entreprises peuvent dire ce qu'elles veulent, mais les données sont claires."

    Vincent a rendu compte à l'époque d'une revue de la littérature commandée par l'Association for Psychological Science, et cinq scientifiques ont examiné les preuves :« Expressions émotionnelles reconsidérées :défis pour inférer l'émotion à partir des mouvements du visage humain ». Vincent a dit "Il leur a fallu deux ans pour examiner les données, avec l'examen regardant plus de 1, 000 études différentes."

    Étant donné que les émotions sont exprimées d'une grande variété de façons, il est difficile de déduire de manière fiable ce que ressent une personne à partir d'un simple ensemble de mouvements du visage. Les auteurs ont déclaré que les entreprises technologiques pourraient bien poser une question fondamentalement fausse. Les efforts pour lire les états internes des personnes à partir des mouvements du visage sans tenir compte des divers aspects du contexte étaient au mieux incomplets et au pire manquaient de validité.

    Alors que le rapport appelait à une interdiction, il pourrait être juste de considérer que la préoccupation est contre le niveau de confiance naïf dans une technologie qui a encore besoin d'être améliorée. Le domaine de l'analyse émotionnelle doit faire mieux.

    Selon Le bord article, un professeur de psychologie à la Northeastern University a estimé que le point peut-être le plus important à retenir de l'examen était que "nous devons penser aux émotions d'une manière plus complexe".

    Léo Kelton, Nouvelles de la BBC, pendant ce temps, relayé le point de vue de la co-fondatrice d'AI Now, la professeure Kate Crawford, qui a déclaré que les études avaient démontré une variabilité considérable en termes de nombre d'états émotionnels et de la façon dont les gens les exprimaient.

    Reuters a rendu compte de sa conférence téléphonique avant la publication du rapport :"Les fondateurs d'AI Now, Kate Crawford et Meredith Whittaker, ont déclaré que les utilisations dommageables de l'IA se multiplient malgré un large consensus sur les principes éthiques, car il n'y a aucune conséquence à les violer." Le rapport actuel indique que la reconnaissance des effets activée par l'IA continue d'être déployée à grande échelle dans des environnements allant des salles de classe aux entretiens d'embauche. Cela informait les déterminations sur qui est productif, mais souvent à l'insu des gens.

    Le rapport AI Now contenait des exemples spécifiques d'entreprises faisant des affaires dans les produits de détection d'émotions. L'une de ces entreprises vend des caméras d'analyse vidéo qui classent les visages comme étant en colère, peur, et la tristesse, vendu aux casinos, Restaurants, commerçants de détail, courtiers immobiliers, et l'hôtellerie, .

    Un autre exemple était une entreprise avec des outils vidéo basés sur l'IA pour recommander les candidats qu'une entreprise devrait interviewer. Les algorithmes ont été conçus pour détecter l'engagement émotionnel dans les micro-expressions des candidats.

    Le rapport comprenait une entreprise créant des bandeaux censés détecter et quantifier les niveaux d'attention des étudiants grâce à la détection de l'activité cérébrale. (Le rapport sur l'IA n'a pas ignoré d'ajouter que les études « décrivent les risques importants associés au déploiement de l'IA émotionnelle en classe. »)

    © 2019 Réseau Science X




    © Science https://fr.scienceaq.com