• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Singularité :comment les gouvernements peuvent stopper la montée des super-IA imparable

    Les gouvernements pourraient encourager l'intégration de l'intelligence humaine et artificielle. Crédits :sdecoret/Shutterstock

    L'invention d'une super-intelligence artificielle est un thème central de la science-fiction depuis au moins le 19e siècle. De la nouvelle d'E.M. Forster The Machine Stops (1909) à la récente série télévisée de HBO Westworld, les écrivains ont eu tendance à présenter cette possibilité comme un désastre absolu. Mais cette question n'est plus celle de la fiction. D'éminents scientifiques et ingénieurs contemporains craignent également que la super-IA puisse un jour surpasser l'intelligence humaine (un événement connu sous le nom de "singularité") et devenir la "pire erreur" de l'humanité.

    Les tendances actuelles suggèrent que nous sommes sur le point d'entrer dans une course internationale aux armements pour une telle technologie. Quelle que soit l'entreprise de haute technologie ou le laboratoire gouvernemental qui réussit à inventer la première super-IA, elle obtiendra une technologie potentiellement dominante dans le monde. C'est un prix gagnant-gagnant. Alors pour ceux qui veulent arrêter un tel événement, la question est de savoir comment décourager ce genre de course aux armements, ou au moins inciter les équipes concurrentes à ne pas rogner sur la sécurité de l'IA.

    Une super-IA pose deux défis fondamentaux à ses inventeurs, comme le philosophe Nick Bostrom et d'autres l'ont souligné. L'un est un problème de contrôle, c'est comment s'assurer que la super-IA a les mêmes objectifs que l'humanité. Sans cela, l'intelligence pourrait délibérément, accidentellement ou par négligence détruisent l'humanité - un "désastre d'IA".

    Le second est un problème politique, c'est comment faire en sorte que les bénéfices d'une super-intelligence ne profitent pas qu'à une petite élite, provoquant des inégalités sociales et de richesse massives. Si une course aux armements de super-IA se produit, elle pourrait conduire des groupes concurrents à ignorer ces problèmes afin de développer plus rapidement leur technologie. Cela pourrait conduire à une super-IA de mauvaise qualité ou hostile.

    Une solution suggérée consiste à utiliser les politiques publiques pour rendre plus difficile l'entrée dans la course afin de réduire le nombre de groupes en compétition et d'améliorer les capacités de ceux qui y participent. Le moins qui rivalise, moins il y aura de pression pour couper les coins ronds pour gagner. Mais comment les gouvernements peuvent-ils ainsi diminuer la concurrence ?

    Mon collègue Nicola Dimitri et moi avons récemment publié un article qui tentait de répondre à cette question. Nous avons d'abord montré que dans un gagnant typique, comme celui qui a construit la première super-IA, seules les équipes les plus compétitives y participeront. C'est parce que la probabilité d'inventer réellement la super-IA est très faible, et entrer dans la course coûte très cher en raison des gros investissements nécessaires en recherche et développement.

    En effet, cela semble être la situation actuelle avec le développement d'une IA "étroite" plus simple. Les demandes de brevet pour ce type d'IA sont dominées par quelques entreprises, et la grande majorité de la recherche sur l'IA est effectuée dans seulement trois régions (les États-Unis, Chine et Europe). Il semble aussi qu'il y en ait très peu, si seulement, groupes investissant actuellement dans la construction d'une super-IA.

    Cela suggère que la réduction du nombre de groupes concurrents n'est pas la priorité la plus importante pour le moment. Mais même avec un plus petit nombre de concurrents dans la course, l'intensité de la concurrence pourrait encore conduire aux problèmes mentionnés ci-dessus. Donc, pour réduire l'intensité de la concurrence entre les groupes qui s'efforcent de construire une super-IA et d'augmenter leurs capacités, les gouvernements pourraient se tourner vers les marchés publics et les taxes.

    Les marchés publics font référence à tout ce que les gouvernements paient aux entreprises privées pour fournir, des logiciels destinés aux agences gouvernementales aux contrats d'exécution de services. Les gouvernements pourraient imposer des contraintes à tout fournisseur de super-IA qui les obligerait à résoudre les problèmes potentiels, et prendre en charge des technologies complémentaires pour améliorer l'intelligence humaine et l'intégrer à l'IA.

    Mais les gouvernements pourraient également proposer d'acheter une version moins que meilleure de la super-IA, en créant effectivement un « deuxième prix » dans la course aux armements et en l'empêchant d'être une compétition où le gagnant rafle tout. Avec un prix intermédiaire, ce qui pourrait être pour inventer quelque chose de proche (mais pas exactement) d'une super-IA, les groupes concurrents seront incités à investir et à coopérer davantage, réduire l'intensité de la concurrence. Un deuxième prix réduirait également le risque d'échec et justifierait davantage d'investissements, aider à augmenter les capacités des équipes concurrentes.

    Quant aux impôts, les gouvernements pourraient fixer le taux d'imposition du groupe qui invente la super-IA en fonction du degré d'amitié ou d'hostilité de l'IA. Un taux d'imposition suffisamment élevé signifierait essentiellement la nationalisation de la super-IA. Cela découragerait fortement les entreprises privées de couper les coins ronds de peur de perdre leur produit au profit de l'État.

    Bien public et non monopole privé

    Cette idée pourrait nécessiter une meilleure coordination mondiale de la fiscalité et de la réglementation de la super-IA. Mais il n'aurait pas besoin que tous les gouvernements soient impliqués. En théorie, un seul pays ou une seule région (comme l'UE) pourrait supporter les coûts et les efforts nécessaires pour s'attaquer aux problèmes et à l'éthique de la super-IA. Mais tous les pays en bénéficieraient et la super-IA deviendrait un bien public plutôt qu'un monopole privé imparable.

    Bien sûr, tout cela dépend du fait que la super-IA soit réellement une menace pour l'humanité. Et certains scientifiques ne le pensent pas. Nous pourrions naturellement éliminer les risques de la super-IA au fil du temps. Certains pensent que les humains pourraient même fusionner avec l'IA.

    Quoi qu'il en soit, notre planète et ses habitants bénéficieront énormément du fait de tirer le meilleur parti de l'IA, une technologie qui en est encore à ses balbutiements. Pour ça, nous devons mieux comprendre le rôle que le gouvernement peut jouer.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com