• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  Science >> Science >  >> Astronomie
    L’IA pourrait être responsable de notre échec à entrer en contact avec des civilisations extraterrestres

    Il existe un nombre ahurissant de planètes. Crédit :NASA/télescope James Webb

    L’intelligence artificielle (IA) a progressé à un rythme fulgurant ces dernières années. Certains scientifiques envisagent désormais le développement de la superintelligence artificielle (ASI), une forme d'IA qui non seulement surpasserait l'intelligence humaine, mais ne serait pas limitée par la vitesse d'apprentissage des humains.



    Et si cette étape n’était pas seulement une réussite remarquable ? Et si cela représentait également un formidable goulot d'étranglement dans le développement de toutes les civilisations, un goulot d'étranglement si difficile qu'il compromet leur survie à long terme ?

    Cette idée est au cœur d'un article de recherche que j'ai récemment publié dans Acta Astronautica. . L'IA pourrait-elle être le « grand filtre » de l'univers, un seuil si difficile à franchir qu'il empêche la plupart des êtres vivants d'évoluer vers des civilisations spatiales ?

    C'est un concept qui pourrait expliquer pourquoi la recherche d'intelligence extraterrestre (SETI) n'a pas encore détecté les signatures de civilisations techniques avancées ailleurs dans la galaxie.

    L’hypothèse du grand filtre est en fin de compte une solution proposée au paradoxe de Fermi. On peut se demander pourquoi, dans un univers suffisamment vaste et ancien pour abriter des milliards de planètes potentiellement habitables, nous n’avons détecté aucun signe de civilisation extraterrestre. L'hypothèse suggère qu'il existe des obstacles insurmontables dans la chronologie évolutive des civilisations qui les empêchent de se développer en entités spatiales.

    Je pense que l’émergence de l’ASI pourrait être un tel filtre. Les progrès rapides de l'IA, qui pourraient conduire à l'ASI, pourraient coïncider avec une phase critique du développement d'une civilisation :la transition d'une espèce monoplanétaire à une espèce multiplanétaire.

    C'est là que de nombreuses civilisations pourraient faiblir, l'IA faisant des progrès beaucoup plus rapides que notre capacité à la contrôler ou à explorer et peupler durablement notre système solaire.

    Le défi de l’IA, et plus particulièrement de l’ASI, réside dans sa nature autonome, auto-amplifiée et amélioratrice. Il possède le potentiel d'améliorer ses propres capacités à une vitesse qui dépasse nos propres délais d'évolution sans IA.

    Le potentiel que quelque chose tourne mal est énorme, conduisant à la chute des civilisations biologiques et de l’IA avant qu’elles n’aient la chance de devenir multiplanétaires. Par exemple, si les nations s’appuient de plus en plus sur des systèmes d’IA autonomes qui se font concurrence et leur cèdent le pouvoir, les capacités militaires pourraient être utilisées pour tuer et détruire à une échelle sans précédent. Cela pourrait potentiellement conduire à la destruction de notre civilisation entière, y compris des systèmes d'IA eux-mêmes.

    Dans ce scénario, j’estime que la longévité typique d’une civilisation technologique pourrait être inférieure à 100 ans. C'est à peu près le temps écoulé entre la capacité de recevoir et de diffuser des signaux entre les étoiles (1960) et l'émergence estimée de l'ASI (2040) sur Terre. C'est extrêmement court si on le compare à l'échelle de temps cosmique de milliards d'années.

    Cette estimation, lorsqu’elle est reliée aux versions optimistes de l’équation de Drake – qui tente d’estimer le nombre de civilisations extraterrestres actives et communicantes dans la Voie lactée – suggère qu’à un moment donné, il n’existe qu’une poignée de civilisations intelligentes. De plus, comme nous, leurs activités technologiques relativement modestes pourraient les rendre assez difficiles à détecter.

    Réveil

    Cette recherche n’est pas simplement une mise en garde contre une catastrophe potentielle. Cela sert de signal d'alarme pour que l'humanité établisse des cadres réglementaires solides pour guider le développement de l'IA, y compris les systèmes militaires.

    Il ne s’agit pas seulement d’empêcher l’utilisation malveillante de l’IA sur Terre; il s’agit également de garantir que l’évolution de l’IA s’aligne sur la survie à long terme de notre espèce. Cela suggère que nous devons consacrer plus de ressources pour devenir une société multiplanétaire le plus tôt possible – un objectif qui est resté en sommeil depuis les jours grisants du projet Apollo, mais qui a récemment été relancé par les progrès réalisés par les entreprises privées.

    Comme l’a souligné l’historien Yuval Noah Harari, rien dans l’histoire ne nous a préparés à l’impact de l’introduction d’entités inconscientes et super-intelligentes sur notre planète. Récemment, les implications de la prise de décision autonome en matière d'IA ont conduit des dirigeants éminents du domaine à appeler à un moratoire sur le développement de l'IA, jusqu'à ce qu'une forme responsable de contrôle et de réglementation puisse être introduite.

    Mais même si tous les pays acceptaient de respecter des règles et réglementations strictes, les organisations malhonnêtes seront difficiles à maîtriser.

    L’intégration de l’IA autonome dans les systèmes de défense militaire doit constituer un domaine de préoccupation particulier. Il existe déjà des preuves que les humains renonceront volontairement à un pouvoir important au profit de systèmes de plus en plus performants, car ils peuvent effectuer des tâches utiles beaucoup plus rapidement et efficacement sans intervention humaine. Les gouvernements sont donc réticents à réglementer dans ce domaine étant donné les avantages stratégiques qu’offre l’IA, comme cela a été récemment démontré de manière dévastatrice à Gaza.

    Cela signifie que nous nous rapprochons déjà dangereusement d’un précipice où les armes autonomes opèrent au-delà des frontières éthiques et contournent le droit international. Dans un tel monde, céder le pouvoir aux systèmes d’IA afin d’obtenir un avantage tactique pourrait déclencher par inadvertance une chaîne d’événements hautement destructeurs qui s’intensifient rapidement. En un clin d'œil, l'intelligence collective de notre planète pourrait être anéantie.

    L’humanité se trouve à un moment crucial de sa trajectoire technologique. Nos actions pourraient désormais déterminer si nous deviendrons une civilisation interstellaire durable ou si nous succomberons aux défis posés par nos propres créations.

    Utiliser SETI comme une lentille à travers laquelle nous pouvons examiner notre développement futur ajoute une nouvelle dimension à la discussion sur l’avenir de l’IA. Il appartient à nous tous de veiller à ce que lorsque nous visons les étoiles, nous ne le fassions pas comme un avertissement pour les autres civilisations, mais comme une lueur d'espoir :une espèce qui a appris à prospérer aux côtés de l'IA.

    Plus d'informations : Michael A. Garrett, L'intelligence artificielle est-elle le grand filtre qui rend les civilisations techniques avancées rares dans l'univers ?, Acta Astronautica (2024). DOI :10.1016/j.actaastro.2024.03.052

    Informations sur le journal : Acta Astronautica

    Fourni par The Conversation

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.




    © Science https://fr.scienceaq.com