Aleksander Madry est un leader dans le domaine émergent de la construction de garanties en intelligence artificielle, qui est presque devenu une branche de l'apprentissage automatique à part entière. Crédit :CSAIL
Les algorithmes d'apprentissage automatique sous-tendent désormais une grande partie des logiciels que nous utilisons, aider à personnaliser nos fils d'actualités et terminer nos réflexions avant que nous ayons fini de taper. Mais à mesure que l'intelligence artificielle s'ancre davantage dans la vie quotidienne, les attentes ont augmenté. Avant que les systèmes autonomes ne gagnent pleinement notre confiance, nous devons savoir qu'ils sont fiables dans la plupart des situations et peuvent résister aux interférences extérieures; en termes d'ingénierie, qu'ils sont robustes. Nous devons également comprendre le raisonnement qui sous-tend leurs décisions; qu'ils sont interprétables.
Alexandre Madry, professeur agrégé d'informatique au MIT et membre principal du corps professoral de l'initiative Trustworthy AI du Laboratoire d'informatique et d'intelligence artificielle (CSAIL), compare l'IA à un couteau tranchant, un outil utile mais potentiellement dangereux que la société doit apprendre à manier correctement. Madry a récemment pris la parole au Symposium du MIT sur la robustesse, IA interprétable, un événement co-parrainé par le MIT Quest for Intelligence et CSAIL, et tenue le 20 novembre à Singleton Auditorium. Le symposium a été conçu pour présenter les nouveaux travaux du MIT dans le domaine de la construction de garanties dans l'IA, qui est presque devenu une branche de l'apprentissage automatique à part entière. Six membres du corps professoral ont parlé de leurs recherches, 40 étudiants ont présenté des posters, et Madry a ouvert le symposium avec une conférence bien intitulée, « Robustesse et interprétabilité. Nous avons parlé avec Madry, un leader dans ce domaine émergent, sur certaines des idées clés soulevées lors de l'événement.
Q :L'IA doit une grande partie de ses récents progrès à l'apprentissage en profondeur, une branche de l'apprentissage automatique qui a considérablement amélioré la capacité des algorithmes à repérer des modèles dans le texte, images et sons, en nous donnant des assistants automatisés comme Siri et Alexa, entre autres. Mais les systèmes d'apprentissage en profondeur restent vulnérables de manière surprenante :ils trébuchent lorsqu'ils rencontrent des exemples légèrement inconnus dans le monde réel ou lorsqu'un attaquant malveillant leur fournit des images subtilement modifiées. Comment essayez-vous, ainsi que d'autres, de rendre l'IA plus robuste ?
R :Jusqu'à récemment, Les chercheurs en IA se sont simplement concentrés sur l'obtention d'algorithmes d'apprentissage automatique pour accomplir des tâches de base. Atteindre des performances même moyennes était un défi majeur. Maintenant que les performances se sont améliorées, l'attention s'est portée sur l'obstacle suivant :améliorer les performances dans le pire des cas. La plupart de mes recherches sont axées sur la résolution de ce défi. Spécifiquement, Je travaille sur le développement de systèmes d'apprentissage automatique de nouvelle génération qui seront suffisamment fiables et sécurisés pour les applications critiques telles que les voitures autonomes et les logiciels qui filtrent le contenu malveillant. Nous construisons actuellement des outils pour entraîner des systèmes de reconnaissance d'objets à identifier ce qui se passe dans une scène ou une image, même si les images transmises au modèle ont été manipulées. Nous étudions également les limites des systèmes offrant des garanties de sécurité et de fiabilité. Quel degré de fiabilité et de sécurité pouvons-nous intégrer dans les modèles d'apprentissage automatique, et quelles autres fonctionnalités devrions-nous sacrifier pour y arriver ?
Mon collègue Luca Daniel, qui a aussi parlé, travaille sur un aspect important de ce problème :développer un moyen de mesurer la résilience d'un système d'apprentissage en profondeur dans des situations clés. Les décisions prises par les systèmes de deep learning ont des conséquences majeures, et il est donc essentiel que les utilisateurs finaux puissent mesurer la fiabilité de chacune des sorties du modèle. Une autre façon de rendre un système plus robuste est pendant le processus de formation. Dans son discours, « Robustesse dans les GAN et dans l'Optimisation Black-box, " Stefanie Jegelka a montré comment l'apprenant dans un réseau accusatoire génératif, ou GAN, peut être fait pour résister à des manipulations à son entrée, conduisant à de bien meilleures performances.
Q : Les réseaux de neurones qui alimentent l'apprentissage en profondeur semblent apprendre presque sans effort :alimentez-les en suffisamment de données et ils peuvent surpasser les humains dans de nombreuses tâches. Et encore, nous avons également vu avec quelle facilité ils peuvent échouer, avec au moins trois cas largement médiatisés de voitures autonomes s'écrasant et tuant quelqu'un. Les applications de l'IA dans les soins de santé ne sont pas encore soumises au même niveau d'examen, mais les enjeux sont tout aussi importants. David Sontag a concentré son discours sur les conséquences souvent fatales lorsqu'un système d'IA manque de robustesse. Quels sont les signaux d'alarme lors de la formation d'une IA sur les dossiers médicaux des patients et d'autres données d'observation ?
R : Cela renvoie à la nature des garanties et aux hypothèses sous-jacentes que nous intégrons dans nos modèles. Nous supposons souvent que nos ensembles de données d'apprentissage sont représentatifs des données du monde réel sur lesquelles nous testons nos modèles, une hypothèse qui a tendance à être trop optimiste. Sontag a donné deux exemples d'hypothèses erronées intégrées au processus de formation qui pourraient amener une IA à donner le mauvais diagnostic ou à recommander un traitement nocif. Le premier s'est concentré sur une base de données massive de radiographies de patients publiée l'année dernière par les National Institutes of Health. L'ensemble de données devait apporter de grandes améliorations au diagnostic automatisé des maladies pulmonaires jusqu'à ce qu'un radiologue sceptique examine de plus près et trouve des erreurs généralisées dans les étiquettes de diagnostic des analyses. Une IA formée aux scanners thoraciques avec beaucoup d'étiquettes incorrectes aura du mal à générer des diagnostics précis.
A second problem Sontag cited is the failure to correct for gaps and irregularities in the data due to system glitches or changes in how hospitals and health care providers report patient data. Par exemple, a major disaster could limit the amount of data available for emergency room patients. If a machine-learning model failed to take that shift into account its predictions would not be very reliable.
Q:You've covered some of the techniques for making AI more reliable and secure. What about interpretability? What makes neural networks so hard to interpret, and how are engineers developing ways to peer beneath the hood?
A:Understanding neural-network predictions is notoriously difficult. Each prediction arises from a web of decisions made by hundreds to thousands of individual nodes. We are trying to develop new methods to make this process more transparent. In the field of computer vision one of the pioneers is Antonio Torralba, director of The Quest. In his talk, he demonstrated a new tool developed in his lab that highlights the features that a neural network is focusing on as it interprets a scene. The tool lets you identify the nodes in the network responsible for recognizing, dire, a door, from a set of windows or a stand of trees. Visualizing the object-recognition process allows software developers to get a more fine-grained understanding of how the network learns.
Another way to achieve interpretability is to precisely define the properties that make the model understandable, and then train the model to find that type of solution. Tommi Jaakkola showed in his talk, "Interpretability and Functional Transparency, " that models can be trained to be linear or have other desired qualities locally while maintaining the network's overall flexibility. Explanations are needed at different levels of resolution much as they are in interpreting physical phenomena. Of course, there's a cost to building guarantees into machine-learning systems—this is a theme that carried through all the talks. But those guarantees are necessary and not insurmountable. The beauty of human intelligence is that while we can't perform most tasks perfectly, as a machine might, we have the ability and flexibility to learn in a remarkable range of environments.
Cette histoire est republiée avec l'aimable autorisation de MIT News (web.mit.edu/newsoffice/), un site populaire qui couvre l'actualité de la recherche du MIT, innovation et enseignement.