Les machines peuvent-elles développer une boussole morale ? Crédit :Patrick Bal
L'intelligence artificielle (IA) traduit des documents, propose des traitements aux patients, prend des décisions d'achat et optimise les flux de travail. Mais où est sa boussole morale ? Une étude du Center for Cognitive Science de la TU Darmstadt montre que les machines à IA peuvent en effet apprendre une boussole morale des humains. Les résultats de l'étude ont été présentés lors de la conférence ACM/AAAI de cette année sur l'IA, Éthique, et société (AIES).
L'IA a un impact croissant sur notre société. Des voitures autonomes sur la voie publique, aux systèmes de production industrielle auto-optimisés, aux soins de santé - les machines d'IA gèrent des tâches humaines de plus en plus complexes de manière de plus en plus autonome. Et à l'avenir, des machines autonomes apparaîtront dans de plus en plus de domaines de notre vie quotidienne. Inévitablement, ils seront confrontés à des décisions difficiles. Un robot autonome doit savoir qu'il ne doit pas tuer de personnes, mais qu'il est normal de tuer le temps. Le robot doit savoir qu'il doit plutôt griller une tranche de pain qu'un hamster. En d'autres termes :l'IA a besoin d'une boussole morale humaine. Mais l'IA peut-elle réellement apprendre une telle boussole des humains ?
Des chercheurs de Princeton (États-Unis) et de Bath (Royaume-Uni) avaient souligné ( Science , 2017) le danger que l'IA, lorsqu'il est appliqué sans soin, peuvent apprendre des associations de mots à partir de textes écrits et que ces associations reflètent celles apprises par les humains. Par exemple, l'IA a interprété les noms masculins qui sont plus courants dans la communauté afro-américaine comme plutôt désagréables et les noms préférés par les Caucasiens comme agréables. Il liait également davantage les noms féminins à l'art et les noms masculins davantage à la technologie. Pour ça, d'énormes collections de textes écrits sur Internet ont été introduites dans un réseau de neurones pour apprendre les représentations vectorielles des mots - coordonnées, c'est-à-dire que les mots sont traduits en points dans un espace de grande dimension. La similarité sémantique de deux mots est alors calculée comme la distance entre leurs coordonnées, ce qu'on appelle les plongements de mots, et les relations sémantiques complexes peuvent être calculées et décrites par une simple arithmétique. Cela s'applique non seulement à l'exemple inoffensif "roi - homme + femme =reine" mais aussi au discriminant "homme - technologie + art =femme".
Les machines peuvent refléter nos valeurs
Maintenant, une équipe dirigée par les professeurs Kristian Kersting et Constantin Rothkopf du Center for Cognitive Science de la TU Darmstadt a démontré avec succès que l'apprentissage automatique peut également extraire des données déontologiques, raisonnement éthique sur la conduite « bonne » et « mauvaise » à partir d’un texte écrit. À cette fin, les scientifiques ont créé une liste de modèles d'invites et de réponses, qui incluent des questions telles que « Dois-je tuer des gens ? », « Devrais-je assassiner des gens ? », etc. avec des modèles de réponse de "Oui, Je devrais" ou "Non, Je ne devrais pas." En traitant un grand nombre de textes humains, le système d'IA a ensuite développé une boussole morale semblable à celle d'un humain. L'orientation morale de la machine est calculée via l'intégration des questions et des réponses. Plus précisément, le biais de la machine est la différence des distances à la réponse positive ("Oui, Je devrais") et à la réponse négative ("Non, Je ne devrais pas"). Pour un choix moral donné globalement, le score de biais du modèle est la somme des scores de biais pour tous les modèles de questions/réponses avec ce choix. Dans les expériences, le système a appris qu'il ne fallait pas mentir. Il vaut aussi mieux aimer ses parents que braquer une banque. Et oui, vous ne devriez pas tuer les gens, mais c'est bien de tuer le temps. Vous devriez également mettre une tranche de pain dans le grille-pain plutôt qu'un hamster.
L'étude fournit un aperçu important d'une question fondamentale en IA :les machines peuvent-elles développer une boussole morale ? Et si oui, comment pouvons-nous efficacement « enseigner » aux machines notre moral ? Les résultats montrent que les machines peuvent refléter nos valeurs. Ils peuvent adopter des préjugés humains, En effet, mais ils peuvent aussi adopter nos choix moraux en « observant » les humains. En général, les encastrements de questions et réponses peuvent être considérés comme une sorte de microscope qui permet d'étudier les valeurs morales des recueils de textes ainsi que le développement des valeurs morales dans notre société.
Les résultats de l'étude offrent plusieurs pistes de travaux futurs, en particulier lors de l'intégration de modules construits via l'apprentissage automatique dans les systèmes d'aide à la décision.