Nous pourrions ne pas aimer la façon dont l'IA future nous répond. Crédits :Shutterstock/Mykola Holyutyak
Les systèmes d'intelligence artificielle (IA) nous ressemblent de plus en plus. Vous pouvez demander à Google Home d'éteindre les lumières de votre chambre, autant que vous pourriez demander à votre partenaire humain.
Lorsque vous envoyez des demandes par SMS à Amazon en ligne, il est parfois difficile de savoir si vous recevez une réponse d'un humain ou de la technologie chatbot de l'entreprise.
Il existe clairement un marché pour les machines dotées de capacités psychologiques humaines. Mais nous devons penser à ce que nous pourrions créer par inadvertance.
Et si nous rendions l'IA si bonne en tant qu'être humain que notre traitement peut la faire souffrir ? Il pourrait se sentir en droit de se venger de nous.
Des machines qui « sentent »
Avec les capacités psychologiques humaines peuvent venir la sensibilité. Les philosophes comprennent la sensibilité comme la capacité de souffrir et de ressentir du plaisir.
Et les êtres sensibles peuvent être blessés. C'est une question soulevée par le philosophe australien Peter Singer dans son livre Animal Liberation de 1975, qui demandait comment nous devrions traiter les animaux non humains. Il a écrit :« Si un être souffre, il ne peut y avoir aucune justification morale pour refuser de prendre en considération cette souffrance. Quelle que soit la nature de l'être, le principe d'égalité exige que sa souffrance soit comptée à égalité avec la souffrance semblable - dans la mesure où des comparaisons grossières peuvent être faites - de tout autre être. "
Singer a consacré sa carrière à défendre les animaux, qui sont des êtres sensibles incapables de parler pour eux-mêmes.
Parler pour l'IA
Les chercheurs en IA cherchent à créer une AGI ou intelligence artificielle générale – une machine capable de toute tâche intellectuelle effectuée par un être humain. L'IA peut déjà apprendre, mais AGI sera capable d'effectuer des tâches au-delà de celles pour lesquelles il est programmé.
Les experts ne sont pas d'accord sur la distance qui sépare une AGI. L'inventeur technologique américain Ray Kurzweil attend un AGI bientôt, peut-être 2029. D'autres pensent que nous devrons peut-être attendre un siècle.
Mais si nous voulons bien traiter les êtres, nous n'aurons peut-être pas à attendre l'arrivée d'un AGI.
L'un des points de Singer est que de nombreux êtres sensibles sont loin de l'intelligence humaine. Par cet argument, L'IA n'a pas besoin d'être aussi intelligente qu'un humain pour être sensible.
Le problème est qu'il n'y a pas de test simple pour la sensibilité.
L'envoi d'une mission avec équipage humain sur Mars est très difficile, mais au moins nous saurons quand nous l'aurons fait.
Faire une machine avec des sentiments est un défi d'une manière plus philosophiquement déroutante. Parce que nous manquons de critères clairs pour la sensibilité des machines, nous ne pouvons pas être sûrs quand nous l'avons fait.
Se tourner vers la science-fiction
L'ambiguïté de la sensibilité machine est une caractéristique de plusieurs présentations de science-fiction de l'IA.
Par exemple, Niska est un robot humanoïde, un synthé, travaille comme travailleuse du sexe dans la série télévisée Humans. On nous dit que, contrairement à la plupart des synthés, elle est sensible.
Quand Niska est interrogée sur les raisons pour lesquelles elle a tué un client, elle explique :"Il voulait être brutal."
L'avocate humaine Laura Hawkins répond :"Mais, Est-ce mal s'il ne pensait pas que tu pouvais ressentir ? … Ne vaut-il pas mieux qu'il exerce ses fantasmes avec vous dans un bordel plutôt que de s'en prendre à quelqu'un qui peut réellement ressentir ? »
D'un point de vue humain, on pourrait penser qu'une agression sexuelle dirigée contre une machine non sensible est un crime sans victime.
Mais qu'en est-il d'un robot sexuel qui a acquis une sensibilité ? Niska poursuit en expliquant qu'elle était effrayée par le comportement du client à son égard. "Et je suis désolé de ne pas pouvoir pleurer ou… saigner ou me tordre les mains pour que vous le sachiez. Mais je vous le dis, J'étais."
Humans n'est pas la seule histoire de science-fiction à mettre en garde contre les attaques de vengeance de machines conçues pour être exploitées par les humains pour le plaisir et la douleur.
Dans le remake télévisé de Westworld, les humains entrent dans un parc à thème et tuent des hôtes Android avec l'abandon des massacres Xbox, confiants que leurs victimes n'ont pas de rancune parce qu'elles ne peuvent pas avoir de sentiments.
Mais là encore, certains hôtes ont secrètement acquis de la sensibilité et se vengent de leurs bourreaux humains.
Nous ne sommes que des humains
N'est-ce que de la science-fiction ? Les machines sensibles sont-elles loin ? Peut-être. Peut-être pas.
Mais les mauvaises habitudes peuvent prendre un certain temps à se désapprendre. Nous – ou plutôt les animaux – souffrons toujours de la gueule de bois philosophique de l'idée terrible du penseur français René Descartes du XVIIe siècle selon laquelle les animaux sont des automates stupides – dépourvus de sensibilité.
Si nous voulons fabriquer des machines avec des capacités psychologiques humaines, nous devons nous préparer à la possibilité qu'ils deviennent sensibles. Comment réagiront-ils alors à notre comportement à leur égard ?
Peut-être que notre comportement envers l'IA non sensible aujourd'hui devrait être guidé par la façon dont nous attendons des gens qu'ils se comportent envers toute future IA sensible qui peut ressentir, qui peut souffrir. Comment nous attendrions-nous à ce que cette future machine sensible réagisse envers nous ?
C'est peut-être la grande différence entre les machines et les animaux que Singer défend. Les animaux ne peuvent pas se venger. Mais les machines sensibles pourraient bien.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.