Crédit :Université de Buffalo
Elon Musk a déclaré en 2020 que l'intelligence artificielle (IA) d'ici cinq ans dépasserait l'intelligence humaine pour devenir "un dictateur immortel" sur l'humanité. Mais un nouveau livre co-écrit par un professeur de philosophie de l'Université de Buffalo affirme que cela n'arrivera pas, pas d'ici 2025, jamais.
Barry Smith, Ph.D., professeur émérite SUNY au Département de philosophie du Collège des arts et des sciences de l'UB, et Jobst Landgrebe, Ph.D., fondateur de Cognotekt, une société allemande d'IA, ont co-écrit "Why Machines Will Ne dirigez jamais le monde :l'intelligence artificielle sans peur."
Leur livre présente un argument puissant contre la possibilité de concevoir des machines capables de surpasser l'intelligence humaine.
L'apprentissage automatique et toutes les autres applications logicielles fonctionnelles - les fières réalisations de ceux qui sont impliqués dans la recherche sur l'IA - sont pour Smith et Landgrebe loin de tout ce qui ressemble à la capacité des humains. En outre, ils affirment que tout progrès progressif qui se déroule dans le domaine de la recherche sur l'IA ne la rapprochera pratiquement pas de la pleine possibilité de fonctionnement du cerveau humain.
Smith et Landgrebe proposent un examen critique des projections injustifiables de l'IA, telles que les machines se détachant de l'humanité, s'auto-répliquant et devenant des "agents éthiques à part entière". Il ne peut y avoir de volonté mécanique, disent-ils. Chaque application d'IA repose sur les intentions des êtres humains, y compris les intentions de produire des sorties aléatoires.
Cela signifie que la singularité, un point où l'IA devient incontrôlable et irréversible (comme un moment Skynet de la franchise de films "Terminator") ne se produira pas. Les affirmations sauvages du contraire ne servent qu'à gonfler le potentiel de l'IA et à fausser la compréhension publique de la nature, des possibilités et des limites de la technologie.
Atteignant les frontières de plusieurs disciplines scientifiques, Smith et Landgrebe soutiennent que l'idée d'une intelligence artificielle générale (AGI) - la capacité des ordinateurs à imiter et à aller au-delà de l'intelligence générale des humains - repose sur des impossibilités mathématiques fondamentales qui sont analogues en physique à l'impossibilité de construire une machine à mouvement perpétuel. Une IA qui correspondrait à l'intelligence générale des humains est impossible en raison des limites mathématiques de ce qui peut être modélisé et est "calculable". Ces limites sont acceptées par pratiquement tous ceux qui travaillent sur le terrain; pourtant, ils n'ont jusqu'à présent pas compris leurs conséquences sur ce qu'une IA peut accomplir.
"Pour surmonter ces barrières, il faudrait une révolution des mathématiques qui serait d'une plus grande importance que l'invention du calcul par Newton et Leibniz il y a plus de 350 ans", déclare Smith, l'un des philosophes contemporains les plus cités au monde. "Nous ne retenons pas notre souffle."
Landgrebe souligne que, "Comme on peut le vérifier en discutant avec des mathématiciens et des physiciens travaillant aux limites de leurs disciplines respectives, il n'y a même rien à l'horizon qui suggérerait qu'une révolution de ce genre pourrait un jour être réalisable. Les mathématiques ne peuvent pas entièrement modéliser les comportements de systèmes complexes comme l'organisme humain », dit-il.
L'IA a de nombreuses réussites très impressionnantes et des fonds considérables ont été consacrés à l'avancement de ses frontières au-delà des réalisations dans des domaines étroits et bien définis tels que la traduction de texte et la reconnaissance d'images. Selon les auteurs, une grande partie de l'investissement nécessaire pour faire avancer la technologie dans des domaines nécessitant l'équivalent machine de l'intelligence générale pourrait être de l'argent gaspillé.
"Le générateur de texte GPT-3 s'est montré capable de produire différentes sortes de résultats convaincants dans de nombreux domaines divergents", déclare Smith. "Malheureusement, ses utilisateurs ont rapidement reconnu que ces sorties comportaient également des erreurs embarrassantes, de sorte que les sorties convaincantes elles-mêmes ont commencé à apparaître comme rien de plus que des tours de passe-passe astucieux."
Le rôle de l'IA dans le séquençage du génome humain a conduit à des suggestions sur la manière dont elle pourrait aider à trouver des remèdes pour de nombreuses maladies humaines ; pourtant, après 20 ans de recherches supplémentaires (auxquelles Smith et Landgrebe ont participé), peu de choses ont été produites pour soutenir un tel optimisme.
"Dans certains environnements confinés entièrement déterminés par des règles, l'apprentissage automatique peut être utilisé pour créer des algorithmes qui surpassent les humains", explique Smith. "Mais cela ne signifie pas qu'ils peuvent 'découvrir' les règles régissant n'importe quelle activité se déroulant dans un environnement ouvert, ce que le cerveau humain réalise chaque jour."
Les sceptiques de la technologie n'ont bien sûr pas un dossier parfait. Ils se sont trompés en ce qui concerne les percées allant du vol spatial à la nanotechnologie. Mais Smith et Landgrebe disent que leurs arguments sont basés sur les implications mathématiques de la théorie des systèmes complexes. Pour des raisons mathématiques, l'IA ne peut pas imiter le fonctionnement du cerveau humain. En fait, les auteurs disent qu'il est impossible de concevoir une machine qui rivaliserait avec les performances cognitives d'un corbeau.
"Un AGI est impossible", déclare Smith. "Comme le montre notre livre, il ne peut y avoir d'intelligence artificielle générale car elle dépasse les limites de ce qui est même en principe réalisable au moyen d'une machine." Les bébés sont-ils la clé de la prochaine génération d'intelligence artificielle ?