• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Les ordinateurs et les robots pourraient-ils devenir conscients ?
    que se passe-t-il alors ? Bien que nous soyons capables de créer des robots qui peuvent sérieusement nous faire flipper comme ce professeur de robot, nous n'avons pas pu leur donner la conscience. Voir plus de photos de robots. Photo AP/Koji Sasahara

    Les progrès que nous avons réalisés en informatique et en robotique, deux jeunes disciplines, sont impressionnants. La loi de Moore est un bon exemple de la rapidité avec laquelle les choses peuvent changer. Gordon Moore a observé en 1965 que le nombre de transistors pouvant tenir sur une puce de silicium d'un pouce (2,54 centimètres) de diamètre doublait chaque année. C'est un modèle de croissance logarithmique. Alors que les informaticiens ajusteraient l'observation en allongeant le temps qu'il faut avant de pouvoir entasser plus de transistors sur une puce, nous avons encore réduit les transistors à l'échelle nanométrique.

    En robotique, les ingénieurs ont créé des machines avec de multiples points d'articulation. Certains robots ont un ensemble de capteurs qui peuvent recueillir des informations sur l'environnement, permettant au robot de manœuvrer à travers un simple parcours d'obstacles. Le robot ASIMO de Honda peut monter les escaliers et courir. De la fabrication aux applications militaires, les robots ont un grand impact.

    Bien que les ordinateurs et les robots soient plus avancés que jamais, ce ne sont encore que des outils. Ils peuvent être utiles, en particulier pour les tâches qui seraient dangereuses pour les humains ou prendraient trop de temps à accomplir sans l'aide d'un ordinateur. Mais les robots et les ordinateurs ignorent leur propre existence et ne peuvent effectuer que les tâches pour lesquelles ils ont été programmés.

    Mais et s'ils pouvaient penser par eux-mêmes ? C'est un thème commun dans la science-fiction. Les machines prennent conscience d'elles-mêmes, changer la dynamique entre l'homme et la machine. Cela pourrait-il vraiment arriver ?

    Conscience informatique et robotique

    La conscience artificielle peut ne jamais progresser plus loin qu'une simulation de la conscience humaine. iStockphoto/Thinkstock

    Que les ordinateurs ou les robots puissent ou non prendre conscience n'est pas une question aussi facile qu'on pourrait le penser. Il y a encore beaucoup de choses que nous ne savons pas sur la conscience humaine. Alors que les programmeurs et les informaticiens créent des algorithmes qui peuvent simuler la pensée à un niveau superficiel, déchiffrer le code nécessaire pour donner conscience à une machine reste hors de notre portée.

    Une partie du problème réside dans la définition de la conscience. Eric Schwitzgebel, professeur de philosophie à l'Université de Californie, Bord de rivière, suggère que le concept est mieux expliqué par des exemples de ce qu'est la conscience et de ce qu'elle n'est pas. Schwitzgebel dit que les sensations vives font partie de la conscience. On pourrait dire qu'à travers des capteurs, les robots et les ordinateurs peuvent expérimenter - ou du moins détecter - des stimuli que nous interpréterions comme des sensations. Mais Schwitzgebel signale aussi d'autres instances de la conscience :la parole intérieure, images visuelles, les émotions et les rêves sont tous des éléments que nous pouvons expérimenter que les machines ne peuvent pas.

    Tous les philosophes ne sont pas d'accord sur ce qui est et n'est pas la conscience. Au mieux, la plupart conviennent que la conscience repose dans le cerveau. Mais nous ne comprenons pas pleinement les mécanismes qui fournissent la conscience.

    Sans cette compréhension, il peut être impossible de doter les machines de conscience. Il est possible de créer des programmes qui imitent la pensée. Ces programmes peuvent donner à une machine la capacité de reconnaître et de répondre à des modèles. Mais finalement, la machine n'a pas conscience d'elle-même. Il répond simplement aux commandes.

    Les neurologues et les informaticiens pourraient éventuellement créer un modèle artificiel d'un cerveau humain qui pourrait produire la conscience. Le problème auquel ces scientifiques sont confrontés n'est pas anodin. Comme nous n'avons pas une compréhension complète du fonctionnement du cerveau, construire une version artificielle pourrait ne pas être suffisant pour créer une conscience réelle.

    Malgré les défis, il y a des équipes d'ingénieurs et de scientifiques du monde entier qui travaillent à la conscience artificielle. Reste à voir si nous atteindrons un jour cet objectif. Mais en supposant que nous ayons trouvé un moyen de donner une conscience aux machines, que se passe-t-il alors ?

    Les robots sont des personnes, Trop

    Il n'est pas difficile de ressentir de l'empathie pour ASIMO même si ASIMO ne ressent rien. AP Photo/Aaron Favila

    La conscience artificielle pourrait céder la place à de sérieuses questions éthiques. Si les machines prennent conscience d'elles-mêmes, pourraient-ils réagir de manière négative à la situation dans laquelle ils se trouvent ? Les machines pourraient-elles s'opposer à être utilisées comme outils ? Auraient-ils des sentiments ?

    Il y a beaucoup de débats sur le sujet. Puisque personne n'a réussi à créer une machine artificiellement consciente, il est impossible de dire quelles fonctionnalités il aura et n'aura pas. Mais si les machines acquièrent la capacité d'être autoréflexives, cela pourrait nous obliger à reconsidérer la façon dont nous pensons à eux. À quel moment une machine posséderait-elle le type d'intelligence et de conscience qui nous obligerait à lui accorder des droits légaux ? Ou les machines resteraient-elles des outils et se considéreraient-elles éventuellement comme des esclaves ?

    Les machines conscientes forment la base de plusieurs contes de science-fiction apocalyptiques. Des films comme "The Matrix" ou "The Terminator" envisagent un monde dans lequel les machines ont subjugué l'humanité. Ces scénarios reposent sur le concept d'amélioration auto-récursive.

    Amélioration auto-récursive fait référence à la capacité théorique d'une machine à s'examiner, reconnaître les moyens par lesquels il pourrait améliorer sa propre conception, puis s'adapter ou construire de nouvelles versions améliorées de machines. Chaque génération de machines serait plus intelligente et mieux conçue que la génération précédente. Le futuriste Ray Kurzweil suggère que les machines deviendront si habiles à s'améliorer que d'ici peu nous entrerons dans une ère où la technologie évolue à un rythme effréné. Il faudrait redéfinir la réalité parce qu'elle ne ressemblerait pas du tout au présent. Il appelle cela le singularité .

    Dans ce monde, qu'arrive-t-il aux humains? Dans certains scénarios, nous fusionnons avec les machines. La conscience artificielle et réelle devient quelque chose d'entièrement nouveau. Mais dans d'autres scénarios, les machines arrivent à la conclusion que les humains ne sont plus nécessaires. Au mieux, les machines nous ignorent alors qu'elles continuent à construire une technologie plus impressionnante. Au pire des cas, les machines nous anéantissent soit par autoconservation, soit par vengeance.

    Ces scénarios pourraient tous être sans objet - nous n'apprendrons peut-être jamais le secret pour créer une conscience artificielle. Il se pourrait que la conscience soit fondamentalement physiologique et que nous ne puissions pas la simuler artificiellement. Mais juste au cas où on comprendrait tout, vous voudrez peut-être être un peu plus gentil avec votre ordinateur.

    Apprenez-en plus sur l'intelligence artificielle en suivant les liens sur la page suivante.

    Beaucoup plus d'informations

    Articles connexes de HowStuffWorks

    • Comment fonctionnent les robots
    • Les robots vont-ils se marier ?
    • Comment fonctionne ASIMO
    • Quelle est la singularité technologique ?
    • Comment fonctionne CAPTCHA
    • Sommes-nous à 10 ans de l'intelligence artificielle ?
    • L'intelligence artificielle envahira-t-elle Second Life ?

    Plus de grands liens

    • Centre national des sciences informatiques

    Sources

    • Evans, CO. "Le sujet de la conscience." George Allen &Unwin Ltd. Londres. 1970. http://mentalstates.net/SOC.html
    • Gaudin, Sharon. "Intel :l'intelligence humaine et l'intelligence informatique fusionneront dans 40 ans." Monde de l'ordinateur. 23 juillet 2008. (11 mars, 2010) http://www.computerworld.com/s/article/9110578/Intel_Human_and_computer_intelligence_will_merge_in_40_years
    • Lovgren, Stéphane. "Le projet de superinformatique vise à simuler le cerveau humain." 20 juillet 2005. (11 mars 2010) http://news.nationalgeographic.com/news/2005/07/0720_050720_bluebrain.html
    • Moore, Gordon. "Cramer plus de composants sur des circuits intégrés." Électronique. 19 avril 1965. Vol. 38, Numéro 8. http://download.intel.com/museum/Moores_Law/Articles-Press_Releases/Gordon_Moore_1965_Article.pdf
    • Schwitzgebel, Éric. « Définition de la « conscience ». » The Splintered Mind. 19 mai 2008. (16 mars, 2010) http://schwitzsplinters.blogspot.com/2008/05/defining-consciousness.html
    • ThinkQuest. "L'Intelligence Supérieure." (11 mars, 2010) http://library.thinkquest.org/C001501/the_saga/ai.htm
    • Torrance, Steve. « Comment les traiter ? Remarques sur l'éthique de la conscience artificielle
    • Research." Universités du Sussex et du Middlesex UK. Septembre 2003. (16 mars 2010) http://www.machineconsciousness.org/papers/How%20Should%20We%20Treat%20Them.pdf
    • Torrance, Steve. "Le statut éthique des agents artificiels - avec et sans conscience." Universités du Sussex et du Middlesex au Royaume-Uni. octobre 2006. (16 mars 2010) http://ethicbots.na.infn.it/meetings/firstworkshop/abstracts/torrance.htm
    • Velmans, Max. "Définir la Conscience." Département de psychologie, Orfèvres, Londres. 1er décembre 1999. (15 mars 2010)http://cogprints.org/395/0/Definingconsciousness.html
    © Science https://fr.scienceaq.com