Crédit :William Bradberry/Shutterstock
L'intelligence artificielle dépassera-t-elle un jour la pensée humaine ? Les progrès rapides de l'IA, couplé à notre peur standard des machines, a fait craindre que ses capacités ne commencent un jour à se développer de manière incontrôlable, le conduisant finalement à conquérir le monde et à anéantir l'humanité s'il décide que nous sommes un obstacle à ses objectifs. Ce moment est généralement appelé « singularité de l'IA ».
Un argument contre la possibilité d'un tel suprême, une intelligence imparable et en croissance indéfinie est qu'il lui faudrait, par définition, pour pouvoir prédire avec précision l'avenir. Et la théorie quantique, l'un des principaux moyens utilisés par la science moderne pour expliquer l'univers, dit que prédire l'avenir peut ne pas être possible parce que l'univers est aléatoire. Mais que se passe-t-il si nous pensons seulement que prédire l'avenir est impossible parce que nous ne sommes pas assez intelligents pour savoir le contraire ?
L'intelligence est un concept très complexe et abstrait sans définition convenue. Cependant, il y a un accord commun sur certains des composants qui composent chaque sorte d'intelligence connue. L'un d'eux est la capacité de résoudre des problèmes, qui requiert la capacité de planifier en anticipant l'avenir. Résoudre un problème, il est essentiel de comprendre les conditions actuelles, prévoir l'évolution de l'environnement, et d'anticiper le résultat des actions qui seront appliquées.
Univers aléatoire
Des théories récentes en physique suggèrent que l'univers est extrêmement chaotique et aléatoire. Prenons l'exemple des éléments chimiques instables qui finissent par subir une désintégration radioactive en une autre substance. Vous pouvez estimer combien de temps il faudra à une certaine quantité de cet élément pour se désintégrer, mais vous ne pouvez pas dire avec certitude quand un seul atome de celui-ci le fera. De la même manière, vous pouvez mesurer la position ou la quantité de mouvement d'une particule mais, pour certaines raisons liées à la théorie quantique, vous ne pouvez pas connaître les deux à la fois avec une exactitude complète. (C'est ce qu'on appelle le principe d'incertitude de Heisenberg.)
En supposant que ces théories soient correctes, ils suggèrent que, au-delà d'un certain niveau de détail, l'univers est finalement imprévisible, chaotique et instable. Cela signifierait que toute sorte d'intelligence croissante atteindrait finalement un point où elle ne peut plus améliorer ses prédictions du futur et ne peut donc pas augmenter davantage son intelligence. En d'autres termes, il n'y a pas de risque d'emballement de l'IA, parce que les lois physiques de l'univers posent des limites strictes très contraignantes. Par exemple, étant donné les limites connues de la prévisibilité météorologique, un système d'IA ne pourra pas déjouer les humains en exploitant des prévisions météorologiques à long terme extrêmement précises pour planifier les actions futures.
Il est très réconfortant de croire que la nature de l'univers est, en quelques sortes, empêcher une escalade de l'IA. Mais il existe une autre perspective. Et si les humains percevaient l'univers comme aléatoire et chaotique uniquement parce que nos capacités cognitives et de raisonnement sont trop limitées ? Nous sommes conscients de certaines des limites de la compréhension humaine, mais, pour paraphraser Donald Rumsfeld, nous ne savons pas ce que nous ne savons pas.
Dans cette optique, il se peut que l'univers soit plutôt déterministe, et donc parfaitement prévisible, mais d'une manière extrêmement complexe que nous, humains, ne pouvons pas saisir. Albert Einstein a soutenu que la théorie quantique était une description incomplète de l'univers et qu'il doit y avoir des variables cachées que nous ne comprenons pas encore mais qui détiennent la clé pour déterminer les événements futurs.
Cela renverserait la table sur la possibilité d'une singularité de l'IA. Une intelligence super avancée pourrait être en mesure de révéler ces variables cachées et ainsi comprendre la nature prévisible de l'univers, libérer tout le potentiel de la machine. Il convient de noter que les approches d'IA sont déjà utilisées pour faire automatiquement des découvertes en physique.
Sur le plan pratique, la singularité ne semble pas si plausible étant donné à quel point l'IA est encore limitée. Des percées récentes dans l'IA ont été réalisées via ce que l'on appelle l'IA étroite, conçu pour effectuer une tâche bien définie comme jouer aux échecs ou conduire une voiture. Alors que l'IA étroite peut surpasser les humains dans certaines tâches, il n'y a pas grand-chose à suggérer qu'une IA plus générale capable d'imiter la capacité des humains à répondre à de nombreuses tâches différentes sera fournie et mettra les humains en danger dans un proche avenir.
Mais nous ne pouvons pas l'exclure complètement. Comme nous avons encore une connaissance limitée de la nature de l'univers, et de la puissance de l'IA, peut-être vaut-il mieux jouer prudemment. Même sans singularité, L'IA aura un impact dramatique sur la société humaine. Nous devons travailler aussi dur que possible pour nous assurer que l'IA est bénéfique pour l'humanité, pas une menace pour elle.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.