Que ferait l'Intelligence Générale Artificielle du monde humain ? Crédit :Shutterstock/Nathapol Kongseang
L'intelligence artificielle peut jouer aux échecs, conduire une voiture et diagnostiquer des problèmes médicaux. Les exemples incluent AlphaGo de Google DeepMind, Les véhicules autonomes de Tesla, et Watson d'IBM.
Ce type d'intelligence artificielle est appelé intelligence artificielle étroite (ANI) – des systèmes non humains qui peuvent effectuer une tâche spécifique. Nous rencontrons ce type au quotidien, et son utilisation se développe rapidement.
Mais alors que de nombreuses capacités impressionnantes ont été démontrées, nous commençons également à voir des problèmes. Le pire des cas concernait une voiture d'essai autonome qui a heurté un piéton en mars. Le piéton est décédé et l'incident fait toujours l'objet d'une enquête.
La prochaine génération d'IA
Avec la prochaine génération d'IA, les enjeux seront presque certainement beaucoup plus élevés.
L'intelligence générale artificielle (AGI) disposera de pouvoirs de calcul avancés et d'une intelligence au niveau humain. Les systèmes AGI pourront apprendre, résoudre des problèmes, s'adapter et s'améliorer. Ils accompliront même des tâches au-delà de celles pour lesquelles ils ont été conçus.
Surtout, leur taux d'amélioration pourrait être exponentiel car ils deviennent beaucoup plus avancés que leurs créateurs humains. L'introduction de l'AGI pourrait rapidement engendrer la Super Intelligence Artificielle (ASI).
Bien qu'il n'existe pas encore de systèmes AGI pleinement fonctionnels, il a été estimé qu'ils seront avec nous n'importe où entre 2029 et la fin du siècle.
Ce qui semble presque certain, c'est qu'ils finiront par arriver. Quand ils le font, il y a une grande et naturelle inquiétude que nous ne puissions pas les contrôler.
Les risques associés à l'IAG
Il ne fait aucun doute que les systèmes AGI pourraient transformer l'humanité. Certaines des applications les plus puissantes incluent la guérison des maladies, résoudre des défis mondiaux complexes tels que le changement climatique et la sécurité alimentaire, et initier un boom technologique mondial.
Mais l'incapacité à mettre en œuvre des contrôles appropriés pourrait entraîner des conséquences catastrophiques.
Malgré ce que l'on voit dans les films hollywoodiens, les menaces existentielles ne sont pas susceptibles d'impliquer des robots tueurs. Le problème ne sera pas celui de la malveillance, mais plutôt d'intelligence, écrit le professeur du MIT Max Tegmark dans son livre de 2017 Life 3.0:Being Human in the Age of Artificial Intelligence.
C'est ici que la science des systèmes homme-machine – connue sous le nom de facteurs humains et ergonomie – prendra le devant de la scène. Des risques émergeront du fait que les systèmes super-intelligents identifieront des façons plus efficaces de faire les choses, concocter leurs propres stratégies pour atteindre leurs objectifs, et même développer leurs propres objectifs.
Imaginez ces exemples :
Ces scénarios soulèvent le spectre de systèmes AGI disparates se battant les uns contre les autres, aucun d'entre eux ne considère les préoccupations humaines comme leur mandat central.
Divers futurs dystopiques ont été avancés, y compris ceux dans lesquels les humains finissent par devenir obsolètes, avec l'extinction ultérieure de la race humaine.
D'autres ont transmis des perturbations moins extrêmes mais toujours importantes, y compris l'utilisation malveillante d'AGI pour des attaques terroristes et des cyberattaques, la suppression du besoin de travail humain, et la surveillance de masse, pour n'en citer que quelques-uns.
Il est donc nécessaire d'effectuer des enquêtes centrées sur l'humain sur les moyens les plus sûrs de concevoir et de gérer l'IAG afin de minimiser les risques et de maximiser les avantages.
Comment contrôler l'AGI
Contrôler l'AGI n'est pas aussi simple que d'appliquer simplement les mêmes types de contrôles qui tendent à contrôler les humains.
De nombreux contrôles sur le comportement humain reposent sur notre conscience, nos émotions, et l'application de nos valeurs morales. Les AGI n'auront besoin d'aucun de ces attributs pour nous faire du mal. Les formes actuelles de contrôle ne suffisent pas.
Discutablement, il existe trois ensembles de contrôles qui doivent être développés et testés immédiatement :
Facteurs Humains et Ergonomie propose des méthodes permettant d'identifier, concevoir et tester de tels contrôles bien avant l'arrivée des systèmes AGI.
Par exemple, il est possible de modéliser les contrôles qui existent dans un système particulier, modéliser le comportement probable des systèmes AGI au sein de cette structure de contrôle, et identifier les risques pour la sécurité.
Cela nous permettra d'identifier où de nouveaux contrôles sont nécessaires, les concevoir, puis remodeler pour voir si les risques sont éliminés en conséquence.
En outre, nos modèles de cognition et de prise de décision peuvent être utilisés pour garantir que les IAG se comportent de manière appropriée et ont des valeurs humanistes.
Agir maintenant, pas plus tard
Ce type de recherche est en cours, mais il n'y en a pas assez et pas assez de disciplines sont impliquées.
Même l'entrepreneur technologique de haut niveau Elon Musk a mis en garde contre la "crise existentielle" à laquelle l'humanité est confrontée face à l'IA avancée et a parlé de la nécessité de réglementer l'IA avant qu'il ne soit trop tard.
La prochaine décennie représente une période critique. Il existe une opportunité de créer des systèmes AGI sûrs et efficaces qui peuvent avoir des avantages considérables pour la société et l'humanité.
À la fois, une approche de statu quo dans laquelle nous rattrapons les progrès technologiques rapides pourrait contribuer à l'extinction de la race humaine. La balle est dans notre camp, mais ce ne sera plus pour longtemps.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.