Grâce aux progrès de l'intelligence artificielle et de l'apprentissage automatique, Les chercheurs de Princeton développent des technologies dans les soins de santé, transport, l'énergie et bien d'autres domaines. Crédit :Daniel Hertzberg
L'intelligence artificielle fait déjà partie du quotidien. Cela nous aide à répondre à des questions telles que « Cet e-mail est-il un spam ? » Il identifie les amis dans les photographies en ligne, sélectionne des reportages basés sur notre politique et nous aide à déposer des chèques via nos téléphones, même si tous sont quelque peu imparfaits.
Mais ces applications ne sont qu'un début. Grâce aux progrès de l'informatique, les chercheurs créent de nouvelles capacités qui ont le potentiel d'améliorer nos vies d'une manière que nous n'avons pas encore imaginée. Les chercheurs de Princeton sont à la pointe de cette recherche, des fondements théoriques aux nouvelles applications et appareils aux considérations éthiques.
Les tentatives de construction de systèmes intelligents sont aussi vieilles que les ordinateurs eux-mêmes. Les premiers efforts impliquaient souvent la programmation directe de règles de comportement dans un système. Par exemple, les chercheurs pourraient entrer les lois du mouvement pour contrôler un bras robotique. Mais les comportements qui en résultent sont généralement insuffisants.
Avec l'intelligence artificielle, les ordinateurs apprennent de l'expérience. Grâce à "l'apprentissage automatique, " un sous-domaine de l'intelligence artificielle, les ordinateurs sont programmés pour faire des choix, apprendre des résultats, et s'adapter aux commentaires de l'environnement.
L'apprentissage automatique transforme l'érudition sur le campus, a déclaré Jennifer Rexford, Gordon Y.S. de Princeton Wu Professeur d'ingénierie et président du département d'informatique.
"Princeton a une très longue tradition de travail solide en informatique et en mathématiques, et nous avons de nombreux départements qui sont tout simplement de premier ordre, combiné avec un accent sur le service de l'humanité, " a déclaré Rexford. "Vous n'obtenez tout simplement pas cela partout."
Résultats positifs
L'un des défis sociétaux auxquels les machines artificiellement intelligentes s'attaquent est de savoir comment prendre de meilleures décisions en matière de soins de santé. Barbara Engelhardt, professeur agrégé d'informatique, crée des algorithmes pour aider les médecins à adopter les pratiques les plus susceptibles d'avoir des résultats positifs pour les patients.
Par exemple, quand un patient doit-il être sevré d'un ventilateur ? Utilisé par un patient sur trois dans les unités de soins intensifs, un ventilateur est un dispositif de sauvetage, mais est envahissant, coûteux et peut propager l'infection. Les médecins attendent souvent plus longtemps que nécessaire pour retirer un patient d'un ventilateur, car s'ils se trompent, ils pourraient compliquer davantage la santé du patient.
En partenariat avec des chercheurs du système hospitalier de l'Université de Pennsylvanie, Engelhardt et son équipe visent à faire passer les soins aux patients d'une approche unique à une approche adaptée à chaque patient. Leur algorithme prend en compte de nombreux facteurs liés au patient, puis calcule quand et comment retirer le patient du ventilateur. Il prend de nombreuses décisions, y compris la quantité de sédatif à administrer avant la procédure et comment tester si le patient peut respirer sans aide.
L'apprentissage automatique pourrait également aider dans les situations où des soins de santé humains de haute qualité ne sont pas immédiatement disponibles, comme avec les patients en soins palliatifs, qui pouvait être surveillé 24 heures sur 24 comme par un spécialiste.
Apprentissage par renforcement
Engelhardt utilise une approche d'apprentissage automatique appelée apprentissage par renforcement, une rupture avec la pratique plus ancienne mais encore largement utilisée de « l'apprentissage supervisé, " où les programmeurs fournissent aux ordinateurs des ensembles de données d'apprentissage et demandent aux machines de généraliser à de nouvelles situations. Par exemple, apprendre à un ordinateur à identifier les chiens sur des photos, les programmeurs fournissent des dizaines de milliers d'images, à partir de laquelle l'ordinateur développe ses propres règles pour déterminer si les nouvelles photos contiennent un chien.
Apprentissage par renforcement, par contre, ressemble plus à l'apprentissage par essais et erreurs que les jeunes enfants utilisent. Un tout-petit qui essaie de caresser le chat de la famille et reçoit un coup sec apprendra à rester à l'écart des chats. De la même manière, les ordinateurs essaient des choses et interprètent les résultats.
Mengdi Wang, professeur assistant en recherche opérationnelle et ingénierie financière, étudie cette approche. Elle a utilisé l'apprentissage par renforcement pour limiter les risques dans les portefeuilles financiers, aider un hôpital local à prédire les complications d'une arthroplastie du genou, et en partenariat avec Microsoft Research pour produire des dialogues de qualité narrative.
Un défi lors de la mise en œuvre de l'apprentissage par renforcement est la surcharge de données. Les ordinateurs n'ont pas l'avantage de l'oubli humain, ils doivent donc traiter toutes les données entrantes. En pratique, les experts doivent souvent intervenir pour fixer des limites au nombre d'éléments à prendre en compte.
"Avoir trop de variables est le goulot d'étranglement de l'apprentissage par renforcement, " dit Wang. " Même si vous avez toutes les informations du monde, vous avez une puissance de traitement limitée."
Wang a développé une méthode pour aider les ordinateurs à comprendre ce qui est important et ce qui ne l'est pas. C'est un algorithme qui réduit la complexité en compressant mathématiquement une grande collection d'états possibles en un petit nombre de clusters possibles. L'approche, qu'elle a développé avec Anru Zhang de l'Université du Wisconsin-Madison, utilise les statistiques et l'optimisation pour regrouper les scénarios probables pour chaque étape d'un processus de prise de décision.
L'IA à la rescousse
Bien que l'apprentissage par renforcement soit puissant, il n'offre aucune garantie lorsqu'un algorithme affronte un nouvel environnement. Par exemple, un véhicule aérien autonome (drone) entraîné pour effectuer des missions de recherche et de sauvetage dans un certain ensemble d'environnements peut échouer considérablement lorsqu'il est déployé dans un nouveau.
Développer des approches pour garantir la sécurité et la performance des drones est l'objectif d'Anirudha Majumdar, professeur adjoint de génie mécanique et aérospatial. En raison de la sécurité et des limites technologiques, la plupart des drones aujourd'hui nécessitent un humain pour contrôler l'engin à l'aide de ses caméras et capteurs. Mais diriger des drones à travers des bâtiments détruits, comme ceux de la centrale électrique de Fukushima Daiichi au Japon, endommagée par la radioactivité, présente des défis.
Les véhicules aériens autonomes pourraient faciliter les efforts de recherche et de sauvetage dans des espaces restreints où le risque d'erreur humaine est grand. Majumdar explore comment appliquer un ensemble d'outils d'apprentissage automatique connus sous le nom de "théorie de la généralisation" pour garantir la sécurité des drones dans de nouveaux environnements. Grosso modo, La théorie de la généralisation fournit des moyens de réduire la différence entre les performances sur les données d'entraînement et les performances sur les nouvelles données.
Apprendre une langue
Apprendre aux ordinateurs à reconnaître les formes est une chose, mais leur apprendre à comprendre le langage courant en est une autre. Pour en venir à la question de savoir comment le cerveau traite le langage, Des chercheurs de Princeton ont scanné le cerveau de volontaires qui ont regardé des épisodes de la série télévisée "Sherlock" de la BBC pour voir ce que fait le cerveau pendant que son propriétaire absorbe de nouvelles informations.
Le défi consistait à agréger les résultats de plusieurs cerveaux pour identifier les tendances. Chaque cerveau a une forme légèrement différente, conduisant à de légères différences dans leurs analyses d'imagerie par résonance magnétique fonctionnelle (IRMf). "C'est comme si vous envoyiez un millier de touristes prendre une photo de la Tour Eiffel. Chaque photo sera légèrement différente selon l'appareil photo, l'endroit où le touriste se tenait pour prendre la photo, et ainsi de suite, " a déclaré Peter Ramadge, le Gordon Y.S. Wu Professeur d'ingénierie et directeur du Center for Statistics and Machine Learning. "Il faut du machine learning pour comprendre ce qui est commun à la réponse de tous les sujets, " il a dit.
Ramadge et d'autres informaticiens, dont Kiran Vodrahalli, alors étudiant de premier cycle, de la promotion 2016, a travaillé avec des chercheurs du Princeton Neuroscience Institute pour agréger les scans du cerveau à l'aide d'une méthode de recherche de points communs appelée « modèle de réponse partagée ». Ils ont ensuite mappé l'activité cérébrale au dialogue dans les épisodes à l'aide d'une technique de traitement du langage naturel - qui extrait le sens de la parole - développée par Sanjeev Arora, le professeur Charles C. Fitzmorris de Princeton en informatique, et son équipe.
Alors qu'une méthode de reconnaissance vocale typique nécessite un grand nombre d'exemples, la nouvelle méthode est capable de tirer un sens d'une collection de mots relativement petite, comme les quelques centaines trouvées dans le scénario de l'émission télévisée. Dans un article publié dans la revue NeuroImage en juin 2017, les chercheurs ont démontré qu'ils pouvaient déterminer en regardant les scans IRMf quelle scène était regardée avec une précision d'environ 72 pour cent.
Dans la boîte noire
L'apprentissage automatique a le potentiel de débloquer des questions auxquelles les humains trouvent difficiles ou impossibles à répondre, en particulier ceux impliquant de grands ensembles de données. Pour les questions vraiment complexes, les chercheurs ont développé une méthode appelée deep learning, inspiré du cerveau humain. Cette méthode repose sur des réseaux de neurones artificiels, collections de neurones artificiels qui, comme de vraies cellules du cerveau, peut recevoir un signal, traiter, et produire une sortie à transmettre au prochain neurone.
Alors que l'apprentissage en profondeur a été un succès, les chercheurs découvrent encore à quelles tâches il est le mieux adapté, dit Arora, qui a récemment fondé un programme d'apprentissage machine théorique à l'Institute for Advanced Study situé à proximité. "Le domaine a tiré beaucoup d'utilité du traitement de l'apprentissage en profondeur comme une boîte noire, " a-t-il dit. " La question est de savoir ce que nous verrons lorsque nous ouvrirons la boîte noire. "
Conséquences inattendues
En plus des grandes questions éthiques sur l'utilisation de l'IA et les implications des machines intelligentes dans la société, les inquiétudes à court terme concernant les systèmes d'IA prenant des emplois à des personnes deviennent de plus en plus courantes. Entre Ed Felten, qui recherche des politiques pour limiter les conséquences imprévues de l'IA.
Felten, le professeur Robert E. Kahn d'informatique et d'affaires publiques et directeur du Princeton's Center for Information Technology Policy, a été directeur adjoint de la technologie des États-Unis à la Maison Blanche d'Obama, où il a dirigé des initiatives politiques fédérales sur l'IA et l'apprentissage automatique.
Avec des chercheurs de l'Université de New York, Felten a cherché à savoir si les inquiétudes concernant l'impact de l'IA sur l'emploi et l'économie peuvent être étayées par des données. Les chercheurs ont utilisé des références standard publiées par des chercheurs en IA. Pour la reconnaissance visuelle, par exemple, l'équipe a évalué le nombre d'images qu'un algorithme d'IA a correctement catégorisées. Felten et ses collègues ont associé cette estimation à des ensembles de données fournis par le Bureau of Labor Statistics.
La question est de savoir si l'IA remplacera les travailleurs, ou compléter leurs efforts et conduire à des opportunités encore plus grandes ? L'histoire montre que les nouvelles technologies s'avèrent souvent bénéfiques pour les travailleurs à long terme, mais non sans peines à court terme pour les travailleurs remplacés par la technologie.
Alors que certains chercheurs pensent que les emplois peu qualifiés seront les plus menacés par les machines artificiellement intelligentes, Les chiffres de Felten suggèrent le contraire. Les pilotes de ligne et les avocats peuvent être au moins aussi menacés par l'automatisation que la personne derrière le comptoir du 7-Eleven local, il a dit.
"Des choses comme le ménage sont très difficiles à automatiser, " Felten a déclaré. "La personne qui fait ce travail doit prendre beaucoup de décisions contextuelles. Quels objets sur le sol sont des déchets et quels objets sur le sol sont des objets de valeur qui sont tombés sur le sol ?"
Felten et son équipe prévoient d'associer leurs découvertes à des informations géographiques, donner une sorte de carte thermique sur les régions du pays qui seront les plus touchées, pour permettre aux entreprises et aux gouvernements de se préparer aux changements à venir.
"Je suis optimiste en ce sens que je pense qu'il y a une énorme opportunité, " Felten a déclaré. " L'IA va conduire à d'énormes progrès dans beaucoup de domaines différents. Mais cela comporte des risques, et nous pourrions facilement le faire mal."