• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les chercheurs appellent à exploiter, régulation de l'IA

    Crédit :CC0 Domaine public

    L'intelligence artificielle semble « creuser les inégalités, " et son déploiement doit être soumis à des réglementations et des limites strictes, notamment pour les technologies sensibles telles que la reconnaissance faciale, a déclaré jeudi un rapport de recherche.

    L'institut AI Now, un centre de l'Université de New York étudiant les implications sociales de l'intelligence artificielle, a déclaré qu'à mesure que ces technologies sont largement déployées, les impacts négatifs commencent à se faire sentir.

    Le rapport de 93 pages a examiné les préoccupations soulevées « par la gestion des travailleurs basée sur l'IA, aux déterminations algorithmiques des prestations et des services sociaux, à la surveillance et au suivi des immigrants et des communautés sous-représentées, ", ont écrit les chercheurs.

    "Ce qui devient clair, c'est que dans divers domaines et contextes, L'IA creuse les inégalités, placer l'information et le contrôle entre les mains de ceux qui ont déjà le pouvoir et affaiblir davantage ceux qui n'en ont pas."

    Les chercheurs ont déclaré que des systèmes d'IA étaient déployés dans des domaines tels que les soins de santé, éducation, emploi, la justice pénale « sans garanties appropriées ni structures de responsabilisation en place ».

    Le rapport indique que les gouvernements et les entreprises devraient cesser d'utiliser la reconnaissance faciale "dans des contextes sociaux et politiques sensibles" jusqu'à ce que les risques soient mieux compris, et qu'un sous-ensemble - "la reconnaissance affective" ou la lecture des émotions par la technologie informatique - devrait être interdit à la lumière des doutes quant à son efficacité.

    La reconnaissance des émotions « ne devrait pas être autorisée à jouer un rôle dans les décisions importantes concernant les vies humaines, comme qui est interviewé ou embauché pour un emploi, le prix de l'assurance, évaluations de la douleur des patients, ou les performances des élèves à l'école, " dit le rapport.

    Il a également appelé les travailleurs de la technologie "à avoir le droit de savoir ce qu'ils construisent et de contester les utilisations contraires à l'éthique ou nuisibles de leur travail".

    Le rapport AI Now a déclaré que les organisations médicales utilisant des technologies de pointe doivent mettre en œuvre des politiques de protection des données et permettre aux personnes d'avoir des opportunités d'"approbation positive" pour se retirer de l'étude ou du traitement, et de la recherche utilisant leurs informations médicales.

    Plus généralement, les chercheurs ont déclaré que l'industrie de l'IA doit apporter des "changements structurels" pour s'assurer que les algorithmes ne renforcent pas le racisme, préjugés ou manque de diversité.

    "L'industrie de l'IA est étonnamment homogène, dû en grande partie à son traitement des femmes, les personnes de couleur, minorités de genre, et d'autres groupes sous-représentés, " dit le rapport.

    Des efforts pour réguler les systèmes d'IA sont en cours, mais "sont dépassés par l'adoption par le gouvernement de systèmes d'IA pour surveiller et contrôler, " selon le rapport.

    « Malgré l'inquiétude croissante du public et les mesures réglementaires, le déploiement de la reconnaissance faciale et d'autres technologies d'IA à risque a à peine ralenti, ", ont écrit les chercheurs.

    « Les projets dits de « villes intelligentes » dans le monde consolident le pouvoir sur la vie civique entre les mains d'entreprises technologiques à but lucratif, en les chargeant de gérer les ressources et les informations critiques. »

    © 2019 AFP




    © Science https://fr.scienceaq.com