• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • De nouveaux algorithmes entraînent l'IA pour éviter certains mauvais comportements

    En tant que robots, les voitures autonomes et autres machines intelligentes tissent l'IA dans la vie quotidienne, une nouvelle façon de concevoir des algorithmes peut aider les développeurs d'apprentissage automatique à mettre en place des protections contre des effets indésirables comme les préjugés raciaux et sexistes. Crédit :Deboki Chakravarti

    L'intelligence artificielle est entrée dans le grand public grâce aux prouesses croissantes des algorithmes d'apprentissage automatique qui permettent aux ordinateurs de s'entraîner à faire des choses comme conduire des voitures, contrôler des robots ou automatiser la prise de décision.

    Mais alors que l'IA commence à gérer des tâches sensibles, comme aider à choisir quels prisonniers obtiennent une caution, les décideurs politiques insistent pour que les informaticiens offrent l'assurance que les systèmes automatisés ont été conçus pour minimiser, sinon à éviter complètement, résultats indésirables tels qu'un risque excessif ou des préjugés raciaux et sexistes.

    Une équipe dirigée par des chercheurs de Stanford et de l'Université du Massachusetts Amherst a publié un article le 22 novembre dans Science suggérant comment fournir de telles assurances. L'article décrit une nouvelle technique qui traduit un objectif flou, comme éviter les préjugés sexistes, dans les critères mathématiques précis qui permettraient à un algorithme d'apprentissage automatique de former une application d'IA pour éviter ce comportement.

    « Nous voulons faire progresser une IA qui respecte les valeurs de ses utilisateurs humains et justifie la confiance que nous accordons aux systèmes autonomes, " a déclaré Emma Brunskill, professeur adjoint d'informatique à Stanford et auteur principal de l'article.

    Éviter les mauvais comportements

    Le travail repose sur la notion que si des résultats ou des comportements « dangereux » ou « injustes » peuvent être définis mathématiquement, alors il devrait être possible de créer des algorithmes qui peuvent apprendre des données sur la façon d'éviter ces résultats indésirables avec une grande confiance. Les chercheurs souhaitaient également développer un ensemble de techniques permettant aux utilisateurs de spécifier facilement les types de comportements indésirables qu'ils souhaitent limiter et permettant aux concepteurs d'apprentissage automatique de prédire en toute confiance qu'un système formé à l'aide de données passées peut être utilisé lorsqu'il est appliqué dans des circonstances réelles.

    « Nous montrons comment les concepteurs d'algorithmes d'apprentissage automatique peuvent permettre aux personnes qui souhaitent intégrer l'IA dans leurs produits et services de décrire plus facilement des résultats ou des comportements indésirables que le système d'IA évitera avec une probabilité élevée, " dit Philippe Thomas, professeur adjoint d'informatique à l'Université du Massachusetts Amherst et premier auteur de l'article.

    © Science https://fr.scienceaq.com