Les personnages virtuels pourraient bientôt être plus intelligents que nous. Michel-Ange/Shutterstock
La plupart des recherches sur l'éthique de l'intelligence artificielle (IA) concernent son utilisation à des fins d'armement, de transport ou de profilage. Bien que les dangers présentés par un char autonome et raciste ne puissent être sous-estimés, il y a un autre aspect à tout cela. Qu'en est-il de nos responsabilités envers les IA que nous créons ?
Les jeux de rôle en ligne massivement multijoueurs (tels que World of Warcraft) sont des réalités de poche peuplées principalement de personnages non joueurs. Pour le moment, ces personnages ne sont pas particulièrement intelligents, mais donnez-lui 50 ans et ils le seront.
Pardon? 50 ans ne suffiront pas ? Prenez 500. Prenez 5 000 000. Nous avons le reste de l'éternité pour y parvenir.
Vous voulez des ordinateurs de la taille d'une planète ? Vous pouvez les avoir. Vous voulez des ordinateurs fabriqués à partir de tissus cérébraux humains ? Vous pouvez les avoir. Finalement, je crois que nous allons avoir des mondes virtuels contenant des personnages aussi intelligents que nous, sinon plus intelligents, et en pleine possession de leur libre arbitre. Quelles seront nos responsabilités envers ces êtres ? Nous serons après tout les dieux littéraux des réalités dans lesquelles ils habitent, contrôlant la physique de leurs mondes. Nous pouvons leur faire tout ce que nous voulons.
Alors sachant tout ça… devrions-nous ?
Difficultés éthiques du libre arbitre
Comme je l'ai exploré dans mon livre récent, chaque fois que "devrait" est impliqué, l'éthique intervient et prend le dessus, même pour les jeux vidéo. La première question à se poser est de savoir si nos personnages de jeu du futur sont dignes d'être considérés comme des entités morales ou sont simplement des bits dans une base de données. Dans ce dernier cas, nous n'avons pas plus besoin de nous en inquiéter la conscience que nous ne le ferions avec des personnages dans un traitement de texte.
La question est en fait sans objet, cependant. Si nous créons nos personnages pour être des êtres libres-penseurs, alors nous devons les traiter comme s'ils étaient tels, indépendamment de la façon dont ils pourraient apparaître à un observateur externe.
Cela étant, pouvons-nous alors éteindre nos mondes virtuels ? Agir ainsi pourrait condamner des milliards de créatures intelligentes à la non-existence. Serait-il néanmoins acceptable que nous sauvions une copie de leur monde au moment où nous l'avons terminé ? Est-ce que la possibilité théorique que nous puissions remettre leur monde exactement tel qu'il était signifie que nous ne sommes pas réellement les assassiner ? Que se passe-t-il si nous n'avons pas le logiciel de jeu d'origine ?
Peut-on légitimement faire souffrir ces personnages ? Nous implémentons nous-mêmes le concept même, donc ce n'est pas tant une question de savoir s'il est acceptable de les tourmenter que de savoir si les tourmenter est même une chose. Dans les sociétés modernes, la position par défaut est qu'il est immoral de faire souffrir des individus libres d'esprit à moins qu'ils ne l'acceptent ou que ce ne soit pour les sauver (ou quelqu'un d'autre) de quelque chose de pire. Nous ne pouvons pas demander à nos personnages de consentir à naître dans un monde de souffrance - ils n'existeront pas lorsque nous créerons le jeu.
Alors, qu'en est-il de l'alternative "quelque chose de pire" ? Si vous possédez le libre arbitre, vous devez être conscient, vous devez donc être vous-même un être moral. Cela signifie que vous devez avoir développé morale, il doit donc être possible que de mauvaises choses vous arrivent. Sinon, vous n'auriez pas pu réfléchir à ce qui est bien ou mal pour développer votre morale. Autrement dit, à moins que de mauvaises choses n'arrivent, il n'y a pas de libre arbitre. Supprimer le libre arbitre d'un être équivaut à détruire l'être qu'il était auparavant, donc oui, nous devons autoriser la souffrance ou le concept de caractère conscient est un oxymore.
L'au-delà ?
En acceptant que nos personnages du futur soient des êtres libres-penseurs, où se situeraient-ils dans une hiérarchie d'importance ? En général, étant donné le choix direct entre sauver un être conscient (comme un tout-petit) ou un être simplement sensible (comme un chien), les gens choisiraient le premier plutôt que le second. Étant donné un choix similaire entre sauver un vrai chien ou un saint virtuel, lequel prévaudrait ?
Gardez à l'esprit que si vos personnages se perçoivent comme des êtres moraux mais que vous ne les percevez pas comme tels, ils vont penser que vous êtes un abruti. En tant qu'Alphinaud Leveilleur, un personnage de Final Fantasy XIV , le dit proprement (spoiler :venant de découvrir que son monde a été créé par les actions d'êtres qui, par conséquent, ne le considèrent pas comme correctement vivant) :"Nous définissent notre valeur, pas les circonstances de notre création !"
Allons-nous laisser mourir nos personnages ? C'est un travail supplémentaire pour mettre en œuvre le concept. S'ils vivent éternellement, les rendons-nous invulnérables ou les empêchons-nous simplement de mourir ? La vie ne serait pas très amusante après être tombée dans un mixeur, après tout. S'ils meurent, les déplaçons-nous au paradis (ou en enfer) du jeu ou les effaçons-nous simplement ?
Ce ne sont pas les seules questions que nous pouvons nous poser. Pouvons-nous insérer des idées dans leur tête ? Pouvons-nous changer leur monde pour jouer avec eux ? Leur imposons-nous notre morale ou les laissons-nous développer la leur (avec laquelle nous pouvons être en désaccord) ? Il y en a bien d'autres.
En fin de compte, la plus grande question est :devrions-nous créer des personnages intelligents en premier lieu ?
Maintenant, vous aurez remarqué que j'ai posé beaucoup de questions ici. Vous vous demandez peut-être quelles sont les réponses.
Eh bien moi aussi ! C'est le but de cet exercice. L'humanité n'a pas encore de cadre éthique pour la création de réalités dont nous sommes les dieux. Aucun système de méta-éthique n'existe encore pour nous aider. Nous devons résoudre ce problème avant nous construisons des mondes peuplés d'êtres au libre arbitre, que ce soit dans 50, 500, 5 000 000 ans d'ici ou demain. Ce sont des questions pour vous pour répondre.
Faites attention à la façon dont vous le faites, cependant. Vous pouvez créer un précédent.
Nous sommes nous-mêmes les personnages non-joueurs de la Réalité.