Professeur adjoint de psychologie Dr Nathan Tenhundfeld, la gauche, a récemment créé l'équipe avancée, La technologie, Automatisation, et Computing Lab pour étudier l'équipe homme-machine. Crédit :Michael Mercier
C'est ce qu'on appelle la vallée étrange. Ceux qui sont fans de l'émission HBO "Westworld" ou qui ont vu le film "Ex Machina" connaissent peut-être déjà le phénomène. Mais pour ceux qui ne le sont pas, c'est essentiellement l'idée que les humains sont à l'aise avec les robots qui ont des caractéristiques humanoïdes, mais devient très inconfortable lorsque le robot ressemble presque mais pas exactement à un humain.
Pour le Dr Nathan Tenhundfeld, cependant, la vallée étrange n'est qu'un des nombreux facteurs qu'il doit prendre en compte lors de ses recherches sur l'interaction homme-automatisation en tant que professeur adjoint au département de psychologie de l'Université de l'Alabama à Huntsville (UAH).
« Nous sommes à un point unique avec le développement de la technologie où les systèmes ou plates-formes automatisés ne sont plus un outil mais un coéquipier intégré à nos expériences quotidiennes, " dit-il. " Nous examinons donc des plateformes commerciales qui proposent les mêmes systèmes mais sous des formes différentes pour voir si une certaine apparence ou caractéristique affecte l'utilisateur et de quelle manière. "
Prends pour exemple, la récente poussée du département américain de la Défense pour incorporer l'automatisation dans les combats. En tant que concept, c'est logique :plus nous avons de robots qui font la guerre, moins il y a de coût pour la vie humaine. Mais en pratique, c'est un peu plus complexe. A quoi devrait ressembler un robot de guerre ? Une personne? Une machine?
Pour répondre à ces questions, Le Dr Tenhundfeld s'est associé à un collègue de l'U.S. Air Force Academy, où il a mené des recherches en tant que stagiaire postdoctoral, d'utiliser "une énorme base de données de robots" afin qu'ils déterminent comment divers composants peuvent affecter la perception des capacités d'un robot. "Nous voulons savoir des choses comme, Est-ce qu'un robot avec des roues ou une piste correspond mieux à nos attentes de ce que nous devrions envoyer à la guerre par rapport à un robot humanoïde ?" dit-il. "Et, est-ce que le fait d'avoir un visage sur le robot affecte si nous voulons le mettre en danger ?"
Un étudiant du Lab ATTAC participe à une simulation de vol. Crédit :Michael Mercier
Même s'il y avait des réponses faciles, ce qui n'existe pas, il y a un autre facteur tout aussi important à considérer au-delà de l'interface utilisateur du robot :la confiance. Pour qu'un robot soit efficace, l'utilisateur doit faire confiance aux informations qu'il fournit. Expliquer, Le Dr Tenhundfeld mentionne les recherches qu'il a menées sur le Tesla Model X pendant son séjour à l'Académie. En regardant spécifiquement la fonction de stationnement automatique de la voiture, lui et son équipe voulaient déterminer la volonté de l'utilisateur de laisser la voiture accomplir sa tâche en fonction de sa préférence en matière de prise de risque ou de confiance en ses capacités.
"Les données suggèrent que les véhicules automatisés ont tendance à être plus sûrs que les humains, mais les humains n'aiment pas abandonner le contrôle, " dit-il en riant. " Nous avons donc eu ce modèle où il y avait des taux d'intervention élevés au début, mais au fur et à mesure qu'ils développaient leur confiance dans le système - après qu'il n'était pas si nouveau et qu'il a commencé à répondre à leurs attentes - ils ont commencé à lui faire davantage confiance et les taux d'intervention ont baissé. »
Le revers de cette médaille, cependant, est le potentiel d'empathie dans, ou attachement à, les utilisateurs d'un système automatisé particulier peuvent avoir développé leur confiance. Pour illustrer ce concept, il raconte une étude de cas d'équipes de neutralisation des explosifs et munitions qui emploient des robots pour faire exploser des bombes en toute sécurité. "Quand ils doivent renvoyer les robots pour se faire réparer, ils ont un problème quand on leur donne un autre robot, " dit-il. " Ils ont donc placé cette confiance dans un robot spécifique même si l'intelligence / la capacité est la même pour tous les robots. "
Et de peur que cela ne donne l'impression qu'il y en a déjà plus qu'assez pour que le Dr Tenhundfeld en tienne compte, il y a aussi la confiance situationnelle, qui se situe quelque part entre la confiance et l'excès de confiance. Dans ce scénario, un utilisateur peut développer un certain niveau de confiance dans son ensemble au fil du temps, mais réalisent ensuite qu'ils ne font pas autant confiance à certains aspects qu'à d'autres. "Dites que j'ai un système automatisé, ou robot, fournir des renseignements dans un environnement de planification de mission, et ça fout ça en l'air, " dit-il. " Je pourrais ne pas lui faire confiance dans un environnement différent, comme sur le champ de bataille, même s'il a un mode de réalisation physique différent pour une utilisation dans cet environnement, et peut être tout à fait capable sur le champ de bataille."
En bref, la nature de plus en plus numérique de notre monde introduit une liste apparemment interminable de considérations lorsqu'il s'agit de garantir que les systèmes automatisés peuvent répondre avec succès aux besoins humains, que le Dr Tenhundfeld doit prendre en compte dans les recherches qu'il effectue dans son Advanced Teaming, La technologie, Automatisation, et laboratoire informatique, ou ATTAC Lab. Mais étant donné le rôle d'UAH en tant que partenaire académique de cette industrie émergente, c'est un défi que lui et ses collègues chercheurs ont relevé. « Les entreprises se concentrent sur le fait d'être les premières à commercialiser un produit, " dit-il. " Nous les aidons à améliorer le produit afin qu'il fonctionne bien pour l'utilisateur. "