• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Des chercheurs développent un vaccin contre les attaques contre l'apprentissage automatique

    Crédit :CC0 Domaine public

    Les chercheurs du CSIRO's Data61, la branche spécialisée dans les données et le numérique de l'agence scientifique nationale australienne, ont développé un ensemble de techniques inédit au monde pour « vacciner » efficacement les algorithmes contre les attaques adverses, une avancée significative dans la recherche en apprentissage automatique.

    Les algorithmes « apprennent » des données sur lesquelles ils sont formés pour créer un modèle d'apprentissage automatique capable d'effectuer une tâche donnée efficacement sans avoir besoin d'instructions spécifiques, comme faire des prédictions ou classer avec précision des images et des e-mails. Ces techniques sont déjà largement utilisées, par exemple pour identifier les spams, diagnostiquer les maladies à partir des rayons X, prédire les rendements des cultures et conduira bientôt nos voitures.

    Alors que la technologie détient un énorme potentiel pour transformer positivement notre monde, l'intelligence artificielle et l'apprentissage automatique sont vulnérables aux attaques contradictoires, une technique utilisée pour tromper les modèles d'apprentissage automatique par l'entrée de données malveillantes provoquant leur dysfonctionnement.

    Dr Richard Nock, Le chef du groupe d'apprentissage automatique du CSIRO Data61 a déclaré qu'en ajoutant une couche de bruit (c'est-à-dire un adversaire) sur une image, les attaquants peuvent tromper les modèles d'apprentissage automatique en classant mal l'image.

    "Les attaques adverses se sont avérées capables de tromper un modèle d'apprentissage automatique en étiquetant de manière incorrecte un panneau d'arrêt de la circulation en tant que panneau de vitesse, ce qui pourrait avoir des effets désastreux dans le monde réel.

    "Nos nouvelles techniques préviennent les attaques contradictoires en utilisant un processus similaire à la vaccination, " dit le Dr Nock.

    "Nous implémentons une version faible d'un adversaire, telles que de petites modifications ou une distorsion d'une collection d'images, pour créer un ensemble de données d'entraînement plus « difficile ». Lorsque l'algorithme est entraîné sur des données exposées à une petite dose de distorsion, le modèle résultant est plus robuste et immunisé contre les attaques adverses, "

    Dans un article de recherche accepté lors de la Conférence internationale sur l'apprentissage automatique (ICML) de 2019, les chercheurs démontrent également que les techniques de « vaccination » sont construites à partir des pires exemples contradictoires possibles, et peut donc résister à des attaques très fortes.

    Adrien Turner, Le PDG de CSIRO's Data61 a déclaré que cette recherche est une contribution significative au domaine croissant de l'apprentissage automatique contradictoire.

    « L'intelligence artificielle et l'apprentissage automatique peuvent aider à résoudre certains des plus grands problèmes sociaux, enjeux économiques et environnementaux, mais cela ne peut se produire sans une recherche ciblée sur ces technologies.

    « Les nouvelles techniques contre les attaques contradictoires développées à Data61 déclencheront une nouvelle ligne de recherche en apprentissage automatique et garantiront l'utilisation positive des technologies d'IA transformatrices, " a déclaré M. Turner.

    Le document de recherche, "Monge émousse Bayes:Résultats de dureté pour l'entraînement contradictoire, " a été présenté à l'ICML le 13 juin à Los Angeles.


    © Science https://fr.scienceaq.com