Crédit :CC0 Domaine public
Des chercheurs de l'Université de Warwick, Collège impérial de Londres, L'EPFL (Lausanne) et Sciteb Ltd ont trouvé un moyen mathématique d'aider les régulateurs et les entreprises à gérer et à contrôler les biais des systèmes d'intelligence artificielle visant à rendre contraires à l'éthique, et des choix commerciaux potentiellement très coûteux et dommageables - un œil éthique sur l'IA.
L'intelligence artificielle (IA) est de plus en plus déployée dans des situations commerciales. Considérons par exemple l'utilisation de l'IA pour fixer les prix des produits d'assurance à vendre à un client particulier. Il existe des raisons légitimes de fixer des prix différents pour différentes personnes, mais il peut aussi être profitable de « jouer » sur leur psychologie ou leur volonté de magasiner.
L'IA a un grand nombre de stratégies potentielles parmi lesquelles choisir, mais certains sont contraires à l'éthique et entraîneront non seulement un coût moral, mais également une pénalité économique potentielle importante, car les parties prenantes appliqueront une pénalité si elles constatent qu'une telle stratégie a été utilisée - les régulateurs peuvent imposer des amendes importantes de plusieurs milliards de dollars, Des livres ou des euros et les clients peuvent vous boycotter, ou les deux.
Ainsi, dans un environnement où les décisions sont de plus en plus prises sans intervention humaine, il y a donc une très forte incitation à savoir dans quelles circonstances les systèmes d'IA pourraient adopter une stratégie contraire à l'éthique et réduire ce risque ou l'éliminer complètement si possible.
Mathématiciens et statisticiens de l'Université de Warwick, Impérial, L'EPFL et Sciteb Ltd se sont associés pour aider les entreprises et les régulateurs à créer un nouveau « Principe d'optimisation contraire à l'éthique » et fournir une formule simple pour estimer son impact. Ils ont exposé tous les détails dans un document portant le nom "Un principe d'optimisation contraire à l'éthique", Publié dans Science ouverte de la Royal Society le mercredi 1er juillet 2020.
Les quatre auteurs de l'article sont Nicholas Beale de Sciteb Ltd; Heather Battey du Département de mathématiques, Collège impérial de Londres; Anthony C. Davison de l'Institut de Mathématiques, Ecole Polytechnique Fédérale de Lausanne; et le professeur Robert MacKay de l'Institut de mathématiques de l'Université de Warwick.
Le professeur Robert MacKay de l'Institut de mathématiques de l'Université de Warwick a déclaré :
"Notre 'principe d'optimisation contraire à l'éthique' suggéré peut être utilisé pour aider les régulateurs, le personnel de conformité et d'autres pour trouver des stratégies problématiques qui pourraient être cachées dans un vaste espace stratégique. On peut s'attendre à ce que l'optimisation choisisse de manière disproportionnée de nombreuses stratégies contraires à l'éthique, dont l'inspection devrait montrer où les problèmes sont susceptibles de survenir et ainsi suggérer comment l'algorithme de recherche d'IA devrait être modifié pour les éviter à l'avenir.
"Le Principe suggère également qu'il peut être nécessaire de repenser la façon dont l'IA fonctionne dans de très grands espaces stratégiques, afin que les résultats contraires à l'éthique soient explicitement rejetés dans le processus d'optimisation/d'apprentissage. »