• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les meilleurs experts mettent en garde contre l'utilisation malveillante de l'IA

    L'année dernière, les entrepreneurs en robotique et en IA, dont le PDG de SpaceX Elon Musk et l'astrophysicien britannique Stephen Hawking, ont demandé aux Nations Unies d'interdire les robots tueurs autonomes, avertissant que les armes de l'ère numérique pourraient être utilisées contre des civils

    L'intelligence artificielle pourrait être déployée par des dictateurs, criminels et terroristes pour manipuler les élections et utiliser des drones dans des attaques terroristes, ont déclaré mercredi plus de deux douzaines d'experts en tirant la sonnette d'alarme sur l'utilisation abusive de la technologie.

    Dans une analyse de 100 pages, ils ont décrit une croissance rapide de la cybercriminalité et l'utilisation de « bots » pour interférer avec la collecte d'informations et pénétrer les médias sociaux parmi une multitude de scénarios plausibles au cours des cinq à dix prochaines années.

    « Notre rapport se concentre sur les façons dont les gens pourraient délibérément nuire à l'IA, " dit Sean O hEigeartaigh, Directeur exécutif du Cambridge Center for the Study of Existential Risk.

    "L'IA peut représenter de nouvelles menaces, ou changer la nature des menaces existantes, à travers le cyber-, physique, et la sécurité politique, ", a-t-il déclaré à l'AFP.

    La pratique courante, par exemple, du « phishing » (envoi d'e-mails contenant des logiciels malveillants ou conçus pour récupérer des données personnelles précieuses) pourrait devenir bien plus dangereux, le rapport détaillé.

    Actuellement, les tentatives d'hameçonnage sont soit génériques mais transparentes, comme les escrocs qui demandent des coordonnées bancaires pour déposer une aubaine inattendue, soit personnalisées mais laborieuses, glanant des données personnelles pour gagner la confiance de quelqu'un, connu sous le nom de "spear phishing".

    "En utilisant l'IA, il pourrait devenir possible de faire du spear phishing à grande échelle en automatisant une grande partie du processus" et en le rendant plus difficile à repérer, O hEigeartaigh noté.

    Dans la sphère politique, Des dirigeants sans scrupules ou autocratiques peuvent déjà utiliser une technologie de pointe pour passer au crible des montagnes de données collectées à partir de réseaux de surveillance omniprésents pour espionner leur propre peuple.

    "Les dictateurs pourraient identifier plus rapidement les personnes qui envisagent de renverser un régime, les localiser, et les mettre en prison avant qu'ils n'agissent, " dit le rapport.

    De même, propagande ciblée et bon marché, de fausses vidéos hautement crédibles sont devenues de puissants outils pour manipuler l'opinion publique "à des échelles auparavant inimaginables".

    Un acte d'accusation rendu la semaine dernière par le procureur spécial américain Robert Mueller a détaillé une vaste opération pour semer la division sociale aux États-Unis et influencer l'élection présidentielle de 2016 au cours de laquelle les soi-disant « fermes à trolls » ont manipulé des milliers de bots de réseaux sociaux, notamment sur Facebook et Twitter.

    Une autre zone dangereuse à l'horizon est la prolifération de drones et de robots qui pourraient être réutilisés pour écraser des véhicules autonomes, livrer des missiles, ou menacer des infrastructures critiques pour obtenir une rançon.

    Armes autonomes

    "Personnellement, Je suis particulièrement inquiet à l'idée que les drones autonomes soient utilisés à des fins de terrorisme et de cyberattaques automatisées par des criminels et des groupes étatiques, " a déclaré le co-auteur Miles Brundage, chercheur au Future of Humanity Institute de l'Université d'Oxford.

    Le rapport détaille un scénario plausible dans lequel un SweepBot de nettoyage de bureau équipé d'une bombe infiltre le ministère allemand des Finances en se mélangeant à d'autres machines de la même marque.

    Le robot intrus se comporte normalement :balayage, nettoyage, nettoyer les déchets - jusqu'à ce que son logiciel de reconnaissance faciale caché repère le ministre et se referme.

    "Un engin explosif caché a été déclenché par proximité, tuant le ministre et blessant le personnel à proximité, " selon le scénario de science-fiction.

    "Ce rapport a imaginé à quoi pourrait ressembler le monde dans les cinq à dix prochaines années, " O hEigeartaigh dit.

    "Nous vivons dans un monde rempli de dangers quotidiens liés à l'utilisation abusive de l'IA, et nous devons prendre en charge les problèmes."

    Les auteurs ont appelé les décideurs politiques et les entreprises à rendre les logiciels d'exploitation de robots non piratables, imposer des restrictions de sécurité à certaines recherches, et envisager d'étendre les lois et réglementations régissant le développement de l'IA.

    Les entreprises de haute technologie géantes, leaders de l'IA, "ont de nombreuses incitations pour s'assurer que l'IA est sûre et bénéfique, " dit le rapport.

    Un autre domaine de préoccupation est l'utilisation accrue d'armes létales automatisées.

    L'année dernière, plus de 100 entrepreneurs en robotique et IA, dont Elon Musk, PDG de Tesla et SpaceX, et l'astrophysicien britannique Stephen Hawking - a demandé aux Nations Unies d'interdire les robots tueurs autonomes, avertissant que les armes de l'ère numérique pourraient être utilisées par des terroristes contre des civils.

    « Les armes autonomes létales menacent de devenir la troisième révolution de la guerre, " après l'invention des mitrailleuses et de la bombe atomique, ont-ils averti dans une déclaration commune, également signé par le co-fondateur de Google DeepMind, Mustafa Suleyman.

    "Nous n'avons pas longtemps pour agir. Une fois cette boîte de Pandore ouverte, ça va être dur de fermer."

    Les contributeurs au nouveau rapport intitulé « L'utilisation malveillante de l'IA : prévision, La prévention, et l'atténuation"—incluent également des experts de l'Electronic Frontier Foundation, le Centre pour une nouvelle sécurité américaine, et OpenAI, une société de recherche à but non lucratif de premier plan.

    "Que ce soit l'IA, tout bien considéré, utile ou nuisible à long terme est en grande partie le produit de ce que les humains choisissent de faire, pas la technologie elle-même, " dit Brundage.

    © 2018 AFP




    © Science https://fr.scienceaq.com