Les systèmes d'IA du futur seront plus à l'écoute des nuances du comportement humain. Crédit :Shutterstock
L'un des Saint Graal du développement de l'intelligence artificielle (IA) est de donner aux machines la capacité de prédire l'intention lorsqu'elles interagissent avec les humains.
Nous, les humains, le faisons tout le temps et sans même nous en rendre compte :nous observons, nous Ecoutons, nous utilisons notre expérience passée pour raisonner sur ce que fait quelqu'un, pourquoi ils le font pour faire une prédiction sur ce qu'ils feront ensuite.
À l'heure actuelle, L'IA peut faire un travail plausible pour détecter l'intention d'une autre personne (en d'autres termes, après coup). Ou il peut même avoir une liste de prédéfinis, réponses possibles auxquelles un humain répondra dans une situation donnée. Mais lorsqu'un système ou une machine d'IA n'a que quelques indices ou observations partielles à faire, ses réponses peuvent parfois être un peu… robotiques.
Humains et machines
Dr Lina Yao, maître de conférences à UNSW Engineering, est le chercheur principal d'un projet visant à adapter les systèmes d'IA et les interfaces homme-machine aux nuances les plus fines du comportement humain. Elle dit que le but ultime est que ses recherches soient utilisées dans des systèmes d'IA autonomes, des robots et même des cyborgs, mais la première étape se concentre sur l'interface entre les humains et les machines intelligentes.
"Ce que nous faisons dans ces premières phases, c'est d'aider les machines à apprendre à agir comme des humains en fonction de nos interactions quotidiennes et des actions qui sont influencées par notre propre jugement et nos attentes, afin qu'elles soient mieux placées pour prédire nos intentions, " dit-elle. " A son tour, cela peut même conduire à de nouvelles actions et décisions de notre part, afin que nous établissions une relation de coopération.
Le Dr Yao aimerait que des exemples moins évidents de comportement humain soient intégrés dans les systèmes d'IA pour améliorer la prédiction des intentions. Des choses comme des gestes, mouvement des yeux, posture, l'expression faciale et même les micro-expressions - les signes physiques révélateurs lorsqu'une personne réagit émotionnellement à un stimulus mais essaie de le garder caché.
C'est un défi de taille, car les humains eux-mêmes ne sont pas infaillibles lorsqu'ils essaient de prédire l'intention d'une autre personne.
"Parfois, les gens peuvent prendre des mesures qui s'écartent de leurs propres habitudes habituelles, qui peut avoir été déclenchée par l'environnement extérieur ou l'influence des actions d'une autre personne, " elle dit.
Toutes les bonnes initiatives
Néanmoins, faire en sorte que les systèmes et les machines d'IA soient mieux adaptés à la manière dont les humains initient une action est un bon début. À cette fin, Le Dr Yao et son équipe développent un prototype de système d'interface homme-machine conçu pour capturer l'intention derrière le mouvement humain.
"Nous pouvons apprendre et prédire ce qu'un humain aimerait faire lorsqu'il porte un appareil EEG [électroencéphalogramme], " dit le Dr Yao.
« En portant l'un de ces appareils, chaque fois que la personne fait un mouvement, leurs ondes cérébrales sont collectées que nous pouvons ensuite analyser.
"Plus tard, nous pouvons demander aux gens de penser à se déplacer avec une action particulière, comme lever le bras droit. Donc, ne pas lever le bras, mais en y pensant, et nous pouvons ensuite collecter les ondes cérébrales associées."
Le Dr Yao dit que l'enregistrement de ces données a le potentiel d'aider les personnes incapables de se déplacer ou de communiquer librement en raison d'un handicap ou d'une maladie. Les ondes cérébrales enregistrées avec un appareil EEG pourraient être analysées et utilisées pour déplacer des machines telles qu'un fauteuil roulant, ou encore pour communiquer une demande d'assistance.
"Quelqu'un dans une unité de soins intensifs peut ne pas avoir la capacité de communiquer, mais s'ils portaient un appareil EEG, le schéma de leurs ondes cérébrales pourrait être interprété comme indiquant qu'ils avaient mal ou qu'ils voulaient s'asseoir, par exemple, " dit le Dr Yao.
"Donc une intention de bouger ou d'agir qui n'était pas physiquement possible, ou ne pouvant s'exprimer, pourrait être compris par un observateur grâce à cette interaction homme-machine. La technologie est déjà là pour y parvenir, il s'agit plutôt de rassembler toutes les pièces de travail. "
Partenaires pour la vie
Le Dr Yao dit que l'objectif ultime du développement de systèmes et de machines d'IA qui assistent les humains est de les considérer non seulement comme des outils, mais en tant que partenaires.
"Ce que nous faisons, c'est essayer de développer de bons algorithmes qui peuvent être déployés dans des situations qui nécessitent une prise de décision, " elle dit.
"Par exemple, en situation de sauvetage, un système d'IA peut être utilisé pour aider les sauveteurs à adopter la stratégie optimale pour localiser une ou des personnes plus précisément. Un tel système peut utiliser des algorithmes de localisation qui utilisent des emplacements GPS et d'autres données pour localiser les personnes, ainsi que d'évaluer la fenêtre de temps nécessaire pour atteindre quelqu'un, et faire des recommandations sur le meilleur plan d'action.
"En fin de compte, un humain ferait le dernier appel, mais l'important est que l'IA soit un collaborateur précieux dans un environnement aussi dynamique. Ce type de technologie est déjà utilisé aujourd'hui."
Mais travailler avec des humains en partenariat est une chose; travailler de manière totalement indépendante d'eux est un long chemin à parcourir. Le Dr Yao dit que les systèmes et machines d'IA autonomes pourraient un jour nous considérer comme appartenant à l'une des trois catégories après avoir observé notre comportement :pairs, spectateur ou concurrent. Bien que cela puisse sembler froid et distant, Le Dr Yao dit que ces catégories peuvent changer dynamiquement de l'une à l'autre en fonction de leurs contextes évolutifs. Et en tout cas, elle dit, ce genre de catégorisation cognitive est en fait très humain.
"Quand on y pense, nous portons constamment ces mêmes jugements sur les gens qui nous entourent chaque jour, " elle dit.