Les chercheurs ont mené une série d’expériences dans lesquelles des pilotes humains ont été invités à regarder des vidéos de systèmes d’IA pilotant un avion. Il a ensuite été demandé aux pilotes de deviner ce que faisait le système d’IA et pourquoi. Les résultats ont montré que les pilotes étaient souvent incapables de deviner correctement les intentions du système d'IA.
Les chercheurs pensent que cela est dû au fait que les systèmes d’IA prennent des décisions d’une manière très différente de celle des humains. Les humains ont tendance à prendre des décisions basées sur leur propre expérience et leurs connaissances, tandis que les systèmes d’IA prennent des décisions basées sur des données et des algorithmes. Cette différence dans les processus de prise de décision peut rendre difficile pour les humains de comprendre ce que font les systèmes d’IA.
Les chercheurs affirment que leurs découvertes ont des implications pour l'avenir de l'aviation. À mesure que les systèmes d’IA deviennent plus avancés, ils joueront probablement un rôle plus important dans le pilotage des avions. Cependant, il est important de s’assurer que les humains soient capables de comprendre les décisions prises par les systèmes d’IA afin d’éviter les accidents.
Les résultats de l'étude suggèrent que de nouvelles méthodes de formation pourraient être nécessaires pour les pilotes qui travailleront avec des systèmes d'IA. Ces méthodes de formation devraient aider les pilotes à comprendre comment les systèmes d’IA prennent des décisions et comment interpréter les informations fournies par les systèmes d’IA.
En outre, les chercheurs affirment qu’il est important de développer de nouvelles façons pour les systèmes d’IA de communiquer avec les humains. Cela contribuera à garantir que les humains sont capables de comprendre les décisions prises par les systèmes d’IA et de prendre des décisions éclairées sur la manière d’interagir avec eux.