• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'intelligence artificielle mérite-t-elle les mêmes protections éthiques que nous accordons aux animaux ?

    Crédit :CC0 Domaine Public

    Dans l'émission HBO Westworld , des robots conçus pour afficher des émotions, ressentir de la douleur, et mourir comme des humains peuplent un parc à thème de style occidental tentaculaire pour les riches invités qui paient pour réaliser leurs fantasmes. Au fur et à mesure que le spectacle avance, et les robots en apprennent davantage sur le monde dans lequel ils vivent, ils commencent à se rendre compte qu'ils sont les jouets de la personne qui les a programmés.

    Les téléspectateurs pourraient conclure que les humains doivent s'offrir des robots dotés d'une intelligence artificielle aussi sophistiquée, comme ceux de Westworld — les mêmes protections éthiques que nous nous accordons mutuellement. Mais Westworld est une émission télévisée fictive. Et les robots avec la sophistication cognitive des humains n'existent pas.

    Pourtant, les progrès de l'intelligence artificielle réalisés par les universités et les entreprises technologiques signifient que nous sommes plus près que jamais de créer des machines « à peu près aussi sophistiquées sur le plan cognitif que les souris ou les chiens, " dit Jean Basl, qui est professeur adjoint de philosophie à l'Université Northeastern. Il soutient que ces machines méritent les mêmes protections éthiques que nous accordons aux animaux impliqués dans la recherche.

    "Le scénario cauchemardesque est que nous créons un esprit machine, et sans le savoir, faire quelque chose de douloureux, ", dit Basl. "Nous créons un être conscient et le faisons ensuite souffrir."

    Les comités de protection et d'utilisation des animaux examinent attentivement la recherche scientifique pour s'assurer que les animaux ne souffrent pas indûment, et les normes sont encore plus élevées pour la recherche impliquant des cellules souches humaines, dit Bâle.

    Alors que les scientifiques et les ingénieurs se rapprochent de la création de machines artificiellement intelligentes et conscientes, la communauté scientifique doit construire un cadre similaire pour protéger ces machines intelligentes de la souffrance et de la douleur, trop, dit Bâle.

    "Habituellement, nous attendons d'avoir une catastrophe éthique, puis créez des règles par la suite pour éviter que cela ne se reproduise, " dit Basl. " Nous disons que nous devons commencer à y penser maintenant, avant d'avoir une catastrophe."

    Bâle et son collègue de l'Université de Californie, Bord de rivière, proposer la création de comités de surveillance – composés de scientifiques cognitifs, concepteurs d'intelligence artificielle, philosophes, et les éthiciens, pour évaluer soigneusement la recherche impliquant l'intelligence artificielle. Et ils disent qu'il est probable que de tels comités jugeront toutes les recherches actuelles sur l'intelligence artificielle admissibles.

    Mais une question philosophique est au cœur de tout cela :comment saurons-nous quand nous avons créé une machine capable d'éprouver la joie et la souffrance, surtout si cette machine ne peut pas nous communiquer ces sentiments ?

    Il n'y a pas de réponse facile à cette question, Bâle dit, en partie parce que les scientifiques ne sont pas d'accord sur ce qu'est réellement la conscience.

    Certaines personnes ont une vision "libérale" de la conscience, dit Bâle. Ils croient que tout ce qui est nécessaire pour que la conscience existe est "un traitement de l'information bien organisé, " et un moyen d'être attentif et de planifier sur le long terme. Les personnes qui ont des opinions plus "conservatrices", il dit, exigent que les robots aient des caractéristiques biologiques spécifiques telles qu'un cerveau similaire à celui d'un mammifère.

    À ce point, Bâle dit, il n'est pas clair quel point de vue pourrait s'avérer correct, ou s'il existe une autre façon de définir la conscience que nous n'avons pas encore envisagée. Mais, si nous utilisons la définition plus libérale de la conscience, les scientifiques pourraient bientôt être en mesure de créer des machines intelligentes capables de ressentir la douleur et la souffrance, et qui méritent des protections éthiques, dit Bâle.

    "Nous pourrions être très loin de créer une IA consciente, ou nous pourrions être pourrait être proche, " Basl dit. "Nous devrions être prêts au cas où nous serions proches."


    © Science https://fr.scienceaq.com