Les progrès que nous avons réalisés en informatique et en robotique, deux jeunes disciplines, sont impressionnants. La loi de Moore est un bon exemple de la rapidité avec laquelle les choses peuvent changer. Gordon Moore a observé en 1965 que le nombre de transistors pouvant tenir sur une puce de silicium d'un pouce (2,54 centimètres) de diamètre doublait chaque année. C'est un modèle de croissance logarithmique. Alors que les informaticiens ajusteraient l'observation en allongeant le temps qu'il faut avant de pouvoir entasser plus de transistors sur une puce, nous avons encore réduit les transistors à l'échelle nanométrique.
En robotique, les ingénieurs ont créé des machines avec de multiples points d'articulation. Certains robots ont un ensemble de capteurs qui peuvent recueillir des informations sur l'environnement, permettant au robot de manœuvrer à travers un simple parcours d'obstacles. Le robot ASIMO de Honda peut monter les escaliers et courir. De la fabrication aux applications militaires, les robots ont un grand impact.
Bien que les ordinateurs et les robots soient plus avancés que jamais, ce ne sont encore que des outils. Ils peuvent être utiles, en particulier pour les tâches qui seraient dangereuses pour les humains ou prendraient trop de temps à accomplir sans l'aide d'un ordinateur. Mais les robots et les ordinateurs ignorent leur propre existence et ne peuvent effectuer que les tâches pour lesquelles ils ont été programmés.
Mais et s'ils pouvaient penser par eux-mêmes ? C'est un thème commun dans la science-fiction. Les machines prennent conscience d'elles-mêmes, changer la dynamique entre l'homme et la machine. Cela pourrait-il vraiment arriver ?
Que les ordinateurs ou les robots puissent ou non prendre conscience n'est pas une question aussi facile qu'on pourrait le penser. Il y a encore beaucoup de choses que nous ne savons pas sur la conscience humaine. Alors que les programmeurs et les informaticiens créent des algorithmes qui peuvent simuler la pensée à un niveau superficiel, déchiffrer le code nécessaire pour donner conscience à une machine reste hors de notre portée.
Une partie du problème réside dans la définition de la conscience. Eric Schwitzgebel, professeur de philosophie à l'Université de Californie, Bord de rivière, suggère que le concept est mieux expliqué par des exemples de ce qu'est la conscience et de ce qu'elle n'est pas. Schwitzgebel dit que les sensations vives font partie de la conscience. On pourrait dire qu'à travers des capteurs, les robots et les ordinateurs peuvent expérimenter - ou du moins détecter - des stimuli que nous interpréterions comme des sensations. Mais Schwitzgebel signale aussi d'autres instances de la conscience :la parole intérieure, images visuelles, les émotions et les rêves sont tous des éléments que nous pouvons expérimenter que les machines ne peuvent pas.
Tous les philosophes ne sont pas d'accord sur ce qui est et n'est pas la conscience. Au mieux, la plupart conviennent que la conscience repose dans le cerveau. Mais nous ne comprenons pas pleinement les mécanismes qui fournissent la conscience.
Sans cette compréhension, il peut être impossible de doter les machines de conscience. Il est possible de créer des programmes qui imitent la pensée. Ces programmes peuvent donner à une machine la capacité de reconnaître et de répondre à des modèles. Mais finalement, la machine n'a pas conscience d'elle-même. Il répond simplement aux commandes.
Les neurologues et les informaticiens pourraient éventuellement créer un modèle artificiel d'un cerveau humain qui pourrait produire la conscience. Le problème auquel ces scientifiques sont confrontés n'est pas anodin. Comme nous n'avons pas une compréhension complète du fonctionnement du cerveau, construire une version artificielle pourrait ne pas être suffisant pour créer une conscience réelle.
Malgré les défis, il y a des équipes d'ingénieurs et de scientifiques du monde entier qui travaillent à la conscience artificielle. Reste à voir si nous atteindrons un jour cet objectif. Mais en supposant que nous ayons trouvé un moyen de donner une conscience aux machines, que se passe-t-il alors ?
La conscience artificielle pourrait céder la place à de sérieuses questions éthiques. Si les machines prennent conscience d'elles-mêmes, pourraient-ils réagir de manière négative à la situation dans laquelle ils se trouvent ? Les machines pourraient-elles s'opposer à être utilisées comme outils ? Auraient-ils des sentiments ?
Il y a beaucoup de débats sur le sujet. Puisque personne n'a réussi à créer une machine artificiellement consciente, il est impossible de dire quelles fonctionnalités il aura et n'aura pas. Mais si les machines acquièrent la capacité d'être autoréflexives, cela pourrait nous obliger à reconsidérer la façon dont nous pensons à eux. À quel moment une machine posséderait-elle le type d'intelligence et de conscience qui nous obligerait à lui accorder des droits légaux ? Ou les machines resteraient-elles des outils et se considéreraient-elles éventuellement comme des esclaves ?
Les machines conscientes forment la base de plusieurs contes de science-fiction apocalyptiques. Des films comme "The Matrix" ou "The Terminator" envisagent un monde dans lequel les machines ont subjugué l'humanité. Ces scénarios reposent sur le concept d'amélioration auto-récursive.
Amélioration auto-récursive fait référence à la capacité théorique d'une machine à s'examiner, reconnaître les moyens par lesquels il pourrait améliorer sa propre conception, puis s'adapter ou construire de nouvelles versions améliorées de machines. Chaque génération de machines serait plus intelligente et mieux conçue que la génération précédente. Le futuriste Ray Kurzweil suggère que les machines deviendront si habiles à s'améliorer que d'ici peu nous entrerons dans une ère où la technologie évolue à un rythme effréné. Il faudrait redéfinir la réalité parce qu'elle ne ressemblerait pas du tout au présent. Il appelle cela le singularité .
Dans ce monde, qu'arrive-t-il aux humains? Dans certains scénarios, nous fusionnons avec les machines. La conscience artificielle et réelle devient quelque chose d'entièrement nouveau. Mais dans d'autres scénarios, les machines arrivent à la conclusion que les humains ne sont plus nécessaires. Au mieux, les machines nous ignorent alors qu'elles continuent à construire une technologie plus impressionnante. Au pire des cas, les machines nous anéantissent soit par autoconservation, soit par vengeance.
Ces scénarios pourraient tous être sans objet - nous n'apprendrons peut-être jamais le secret pour créer une conscience artificielle. Il se pourrait que la conscience soit fondamentalement physiologique et que nous ne puissions pas la simuler artificiellement. Mais juste au cas où on comprendrait tout, vous voudrez peut-être être un peu plus gentil avec votre ordinateur.
Apprenez-en plus sur l'intelligence artificielle en suivant les liens sur la page suivante.