Un nouveau document de RAND Corporation révèle que l'intelligence artificielle a le potentiel de renverser les fondements de la dissuasion nucléaire d'ici 2040.
Alors que les machines apocalyptiques contrôlées par l'IA sont considérées comme peu probables, les dangers de l'intelligence artificielle pour la sécurité nucléaire résident plutôt dans son potentiel à inciter les humains à prendre des risques potentiellement apocalyptiques, selon le papier.
Pendant la guerre froide, la condition de destruction mutuelle assurée maintenait une paix précaire entre les superpuissances en s'assurant que toute attaque se heurterait à des représailles dévastatrices. La destruction mutuelle assurée a ainsi encouragé la stabilité stratégique en réduisant les incitations pour l'un ou l'autre pays à prendre des mesures qui pourraient dégénérer en guerre nucléaire.
La nouvelle publication RAND dit que dans les décennies à venir, l'intelligence artificielle a le potentiel d'éroder la condition de destruction mutuelle assurée et de saper la stabilité stratégique. Les technologies de détection améliorées pourraient introduire la possibilité que les forces de représailles telles que les sous-marins et les missiles mobiles puissent être ciblées et détruites.
Les nations peuvent être tentées de rechercher des capacités de première frappe comme moyen d'obtenir un pouvoir de négociation sur leurs rivaux même si elles n'ont pas l'intention de mener une attaque, disent les chercheurs. Cela compromet la stabilité stratégique car même si l'État qui possède ces capacités n'a pas l'intention de les utiliser, l'adversaire ne peut en être sûr.
"Le lien entre guerre nucléaire et intelligence artificielle n'est pas nouveau, en fait, les deux ont une histoire entrelacée, " dit Edward Geist, co-auteur de l'article et chercheur associé en politiques à la RAND Corporation, une association à but non lucratif, organisme de recherche non partisan. "Une grande partie du développement initial de l'IA a été faite pour soutenir les efforts militaires ou avec des objectifs militaires à l'esprit."
Il a déclaré qu'un exemple d'un tel travail était l'expérience de planification adaptative survivable dans les années 1980 qui cherchait à utiliser l'IA pour traduire les données de reconnaissance en plans de ciblage nucléaire.
Dans des circonstances fortuites, l'intelligence artificielle pourrait également améliorer la stabilité stratégique en améliorant la précision de la collecte et de l'analyse du renseignement, selon le papier. Alors que l'IA pourrait augmenter la vulnérabilité des forces de seconde frappe, des analyses améliorées pour surveiller et interpréter les actions de l'adversaire pourraient réduire les erreurs de calcul ou d'interprétation qui pourraient conduire à une escalade involontaire.
Les chercheurs disent que compte tenu des améliorations futures, il est possible que les systèmes d'IA finissent par développer des capacités qui, tout faillible, seraient moins sujettes aux erreurs que leurs alternatives humaines et donc se stabiliseraient à long terme.
"Certains experts craignent qu'un recours accru à l'intelligence artificielle puisse conduire à de nouveaux types d'erreurs catastrophiques, " a déclaré Andrew Lohn, co-auteur de l'article et ingénieur associé chez RAND. "Il peut y avoir une pression pour utiliser l'IA avant qu'elle ne soit technologiquement mature, ou il peut être susceptible de subversion contradictoire. Par conséquent, maintenir la stabilité stratégique dans les décennies à venir peut s'avérer extrêmement difficile et toutes les puissances nucléaires doivent participer au développement d'institutions pour aider à limiter le risque nucléaire. »
Les chercheurs de RAND ont basé leur point de vue sur les informations recueillies lors d'une série d'ateliers avec des experts des questions nucléaires, branches gouvernementales, Recherche en IA, Politique d'IA et sécurité nationale.
« L'intelligence artificielle augmentera-t-elle le risque de guerre nucléaire ? » est disponible sur http://www.rand.org.
La perspective fait partie d'un effort plus large pour envisager les défis de sécurité critiques dans le monde de 2040, compte tenu des effets de la politique, technologique, social, et les tendances démographiques qui façonneront ces défis sécuritaires dans les décennies à venir.
Le financement de l'initiative Sécurité 2040 a été assuré par des dons des partisans de RAND et des revenus d'exploitation.
La recherche a été menée au sein du RAND Center for Global Risk and Security, qui travaille au sein de la RAND Corporation pour développer des recherches multidisciplinaires et une analyse des politiques traitant des risques systémiques pour la sécurité mondiale. Le centre s'appuie sur l'expertise de RAND pour compléter et étendre la recherche RAND dans de nombreux domaines, y compris la sécurité, économie, santé, et la technologie.