• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • De nouveaux modèles sentent la confiance humaine dans les machines intelligentes

    Comment concevoir des machines intelligentes pour « gagner » la confiance des humains ? De nouveaux modèles informent ces conceptions. Crédit :Purdue University photo/Marshall Farthing

    De nouveaux "modèles de classification" détectent à quel point les humains font confiance aux machines intelligentes avec lesquelles ils collaborent, une étape vers l'amélioration de la qualité des interactions et du travail en équipe.

    L'objectif à long terme du domaine de recherche global est de concevoir des machines intelligentes capables de modifier leur comportement pour renforcer la confiance humaine en elles. Les nouveaux modèles ont été développés dans le cadre de recherches menées par le professeur assistant Neera Jain et le professeur agrégé Tahira Reid, à l'École de génie mécanique de l'Université Purdue.

    "Machines intelligentes, et plus largement, les systèmes intelligents deviennent de plus en plus courants dans la vie quotidienne des humains, " dit Jain. " Comme les humains sont de plus en plus amenés à interagir avec des systèmes intelligents, la confiance devient un facteur important pour les interactions synergiques."

    Par exemple, les pilotes d'avion et les travailleurs industriels interagissent régulièrement avec les systèmes automatisés. Les humains vont parfois outrepasser ces machines intelligentes inutilement s'ils pensent que le système est défaillant.

    « Il est bien établi que la confiance humaine est au cœur des interactions réussies entre les humains et les machines, " dit Reid.

    Les chercheurs ont développé deux types de "modèles de capteurs de confiance empiriques basés sur des classificateurs, " un pas vers l'amélioration de la confiance entre les humains et les machines intelligentes.

    Le travail s'aligne sur la célébration des sauts de géant de Purdue, reconnaissant les avancées mondiales de l'université dans le domaine de l'IA, algorithmes et automatisation dans le cadre du 150e anniversaire de Purdue. C'est l'un des quatre thèmes du Festival des idées de la célébration d'une année, conçu pour présenter Purdue comme un centre intellectuel résolvant des problèmes du monde réel.

    Les modèles utilisent deux techniques qui fournissent des données pour évaluer la confiance :l'électroencéphalographie et la réponse galvanique de la peau. Le premier enregistre les schémas des ondes cérébrales, et le second surveille l'évolution des caractéristiques électriques de la peau, fournir des « ensembles de caractéristiques » psychophysiologiques en corrélation avec la confiance.

    Quarante-cinq sujets humains ont enfilé des casques EEG sans fil et portaient un appareil sur une main pour mesurer la réponse galvanique de la peau.

    L'un des nouveaux modèles, un "modèle de capteur de confiance général, " utilise le même ensemble de caractéristiques psychophysiologiques pour les 45 participants. L'autre modèle est personnalisé pour chaque sujet humain, résultant en une meilleure précision moyenne, mais au détriment d'une augmentation du temps de formation. Les deux modèles avaient une précision moyenne de 71,22 pour cent, et 78,55 pour cent, respectivement.

    C'est la première fois que des mesures EEG sont utilisées pour évaluer la confiance en temps réel, ou sans délai.

    "Nous utilisons ces données d'une manière très nouvelle, " a déclaré Jain. "Nous l'examinons dans une sorte de flux continu plutôt que de regarder les ondes cérébrales après un déclencheur ou un événement spécifique."

    Les résultats sont détaillés dans un document de recherche publié dans un numéro spécial de l'Association for Computing Machinery's Transactions on Interactive Intelligent Systems. Le numéro spécial de la revue s'intitule "Confiance et influence dans l'interaction homme-machine intelligente". L'article a été rédigé par l'étudiant diplômé en génie mécanique Kumar Akash; ancien étudiant diplômé Wan-Lin Hu, qui est maintenant associé de recherche postdoctoral à l'Université de Stanford; Jain et Reid.

    « Nous sommes intéressés par l'utilisation des principes de rétroaction-contrôle pour concevoir des machines capables de répondre aux changements de niveau de confiance humaine en temps réel pour construire et gérer la confiance dans la relation homme-machine, " Jain a dit. " Pour ce faire, nous avons besoin d'un capteur pour estimer le niveau de confiance humaine, à nouveau en temps réel. Les résultats présentés dans cet article montrent que des mesures psychophysiologiques pourraient être utilisées pour ce faire. »

    La question de la confiance humaine dans les machines est importante pour le fonctionnement efficace des « collectifs humains-agents ».

    « L'avenir se construira autour de collectifs humains-agents qui nécessiteront une coordination et une collaboration efficaces et réussies entre les humains et les machines, " dit Jain. " Disons qu'il y a un essaim de robots assistant une équipe de secours lors d'une catastrophe naturelle. Dans notre travail, nous avons affaire à un seul humain et à une seule machine, mais en fin de compte, nous espérons passer à des équipes d'humains et de machines."

    Des algorithmes ont été introduits pour automatiser divers processus.

    "Mais nous avons toujours des humains là-bas qui surveillent ce qui se passe, " dit Jain. " Il y a généralement une fonction de remplacement, où s'ils pensent que quelque chose ne va pas, ils peuvent reprendre le contrôle."

    Parfois, cette action n'est pas justifiée.

    "Vous avez des situations dans lesquelles les humains peuvent ne pas comprendre ce qui se passe donc ils ne font pas confiance au système pour faire la bonne chose, " a dit Reid. " Alors ils reprennent le contrôle même quand ils ne devraient vraiment pas. "

    Dans certains cas, par exemple dans le cas de pilotes dépassant le pilote automatique, reprendre le contrôle pourrait en fait entraver l'exploitation sûre de l'avion, provoquant des accidents.

    « Une première étape vers la conception de machines intelligentes capables d'établir et de maintenir la confiance avec les humains est la conception d'un capteur qui permettra aux machines d'estimer le niveau de confiance des humains en temps réel, " dit Jain.

    Pour valider leur méthode, 581 participants en ligne ont été invités à effectuer une simulation de conduite dans laquelle un ordinateur a identifié les obstacles routiers. Dans certains scénarios, l'ordinateur a correctement identifié les obstacles 100 % du temps, alors que dans d'autres scénarios, l'ordinateur a incorrectement identifié les obstacles 50 pour cent du temps.

    "Donc, dans certains cas, cela vous dirait qu'il y a un obstacle, pour freiner et éviter un accident, mais dans d'autres cas, cela vous dirait à tort qu'un obstacle existe alors qu'il n'y en avait pas, alors tu frappes les pauses sans raison, " dit Reid.

    Les tests ont permis aux chercheurs d'identifier des caractéristiques psychophysiologiques qui sont corrélées à la confiance humaine dans les systèmes intelligents, et de construire un modèle de capteur de confiance en conséquence. "Nous avons émis l'hypothèse que le niveau de confiance serait élevé dans les essais fiables et faible dans les essais défectueux, et nous avons validé cette hypothèse en utilisant les réponses recueillies auprès de 581 participants en ligne, " elle a dit.

    Les résultats ont validé que la méthode induisait effectivement la confiance et la méfiance envers la machine intelligente.

    "Afin d'estimer la confiance en temps réel, nous avons besoin de la capacité d'extraire et d'évaluer en continu les mesures psychophysiologiques clés, " Jain a déclaré. "Ce travail représente la première utilisation de mesures psychophysiologiques en temps réel pour le développement d'un capteur de confiance humaine."

    Le casque EEG enregistre les signaux sur neuf canaux, chaque canal captant différentes parties du cerveau.

    "Les ondes cérébrales de chacun sont différentes, vous devez donc vous assurer que vous construisez un classificateur qui fonctionne pour tous les humains."

    Pour les systèmes autonomes, la confiance humaine peut être classée en trois catégories :dispositionnelle, situationnel, et appris.

    La confiance dispositionnelle fait référence à la composante de la confiance qui dépend de données démographiques telles que le sexe et la culture, qui portent des biais potentiels.

    "Nous savons qu'il y a probablement des différences nuancées qui devraient être prises en considération, " a déclaré Reid. " Les femmes font confiance différemment des hommes, par exemple, et la confiance peut également être affectée par les différences d'âge et de nationalité.

    La confiance situationnelle peut être affectée par le niveau de risque ou de difficulté d'une tâche, tandis que appris est basé sur l'expérience passée de l'humain avec les systèmes autonomes.

    Les modèles qu'ils ont développés sont appelés algorithmes de classification.

    "L'idée est de pouvoir utiliser ces modèles pour classer quand quelqu'un se sent probablement en confiance par rapport à probablement en méfiance, " elle a dit.

    Jain et Reid ont également étudié la confiance dispositionnelle pour tenir compte des différences de genre et culturelles, ainsi que des modèles dynamiques capables de prédire comment la confiance changera à l'avenir en fonction des données.


    © Science https://fr.scienceaq.com