• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Construire une IA alignée sur l'éthique

    Crédit :CC0 Domaine public

    Plus les agents d'IA sont déployés dans des scénarios avec des situations éventuellement inattendues, plus ils doivent être flexibles, adaptatif, et créatifs pour atteindre leurs objectifs. Ainsi, un certain niveau de liberté pour choisir le meilleur chemin vers un objectif spécifique est nécessaire pour rendre l'IA suffisamment robuste et flexible pour être déployée avec succès dans des scénarios réels.

    Cela est particulièrement vrai lorsque les systèmes d'IA abordent des problèmes difficiles dont la solution ne peut pas être définie avec précision par une approche traditionnelle basée sur des règles, mais nécessitent les approches basées sur les données et/ou d'apprentissage de plus en plus utilisées dans l'IA. En effet, des systèmes d'IA basés sur les données, tels que ceux utilisant l'apprentissage automatique, sont très réussis en termes de précision et de flexibilité, et ils peuvent être très "créatifs" pour résoudre un problème, trouver des solutions qui pourraient surprendre positivement les humains et leur enseigner des moyens innovants de résoudre un défi.

    Cependant, la créativité et la liberté sans frontières peuvent parfois conduire à des actions indésirables :le système d'IA pourrait atteindre son objectif d'une manière qui n'est pas considérée comme acceptable selon les valeurs et les normes de la communauté impactée. Ainsi, il existe un besoin croissant de comprendre comment contraindre les actions d'un système d'IA en fournissant des limites dans lesquelles le système doit fonctionner. C'est ce que l'on appelle généralement le problème d'"alignement des valeurs", puisque ces limites devraient modéliser les valeurs et les principes requis pour le scénario d'application spécifique de l'IA.

    Chez IBM Research, nous avons étudié et évalué deux façons d'aligner les systèmes d'IA sur les principes éthiques :

    • La première utilise le même formalisme pour modéliser et combiner les préférences subjectives (pour réaliser la personnalisation du service) et les priorités éthiques (pour réaliser l'alignement des valeurs). Une notion de distance entre les préférences et les priorités éthiques est utilisée pour décider si les actions peuvent être déterminées uniquement par les préférences ou si nous devons considérer des priorités éthiques supplémentaires, lorsque les préférences sont trop divergentes de ces priorités.
    • La seconde utilise une approche d'apprentissage par renforcement (dans le cadre du problème des bandits) pour maximiser les récompenses et apprend les directives éthiques à partir d'exemples positifs et négatifs. Nous avons testé cette approche sur des recommandations de films avec supervision parentale, ainsi que la sélection de la posologie des médicaments avec des considérations de qualité de vie.

    L'article qui décrit notre approche globale et les deux manières possibles de résoudre le problème d'alignement des valeurs sera présenté lors de la prochaine conférence AAAI 2019 et recevra le prix AAAI 2019 Blue Sky Idea. Il peut être trouvé ici.

    Ce travail fait partie d'un effort à long terme pour comprendre comment intégrer des principes éthiques dans les systèmes d'IA en collaboration avec le MIT. Alors que la recherche effectuée dans et modélise les priorités éthiques comme des contraintes déontologiques, l'équipe IBM-MIT collecte actuellement des données sur les préférences humaines pour modéliser la façon dont les humains suivent, et basculer entre, différentes théories éthiques (telles que utilitariste, déontologique, et contractualiste), pour ensuite concevoir à la fois des théories éthiques et des mécanismes de commutation, convenablement adapté, dans les systèmes d'IA. De cette façon, de tels systèmes pourront être mieux alignés sur la façon dont les gens raisonnent et agissent selon l'éthique tout en prenant des décisions, et sera ainsi mieux équipé pour interagir naturellement et de manière compacte avec les humains dans une approche d'intelligence augmentée de l'IA.

    Cette histoire est republiée avec l'aimable autorisation d'IBM Research. Lisez l'histoire originale ici.




    © Science https://fr.scienceaq.com