Crédit :Andrey_Popov/Shutterstock
Les robots sont de plus en plus présents dans notre quotidien. Ils peuvent être incroyablement utiles (membres bioniques, tondeuses à gazon robotisées ou robots qui livrent des repas aux personnes en quarantaine) ou simplement divertissants (chiens robotiques, jouets dansants et drones acrobatiques). L'imagination est peut-être la seule limite à ce que les robots pourront faire à l'avenir.
Que se passe-t-il, cependant, lorsque les robots ne font pas ce que nous voulons qu'ils fassent, ou le font d'une manière qui cause du tort ? Par exemple, que se passe-t-il si un bras bionique est impliqué dans un accident de la route ?
Les accidents de robots deviennent préoccupants pour deux raisons. Premièrement, l'augmentation du nombre de robots entraînera naturellement une augmentation du nombre d'accidents dans lesquels ils sont impliqués. Deuxièmement, nous nous améliorons dans la construction de robots plus complexes. Lorsqu'un robot est plus complexe, il est plus difficile de comprendre pourquoi quelque chose s'est mal passé.
La plupart des robots fonctionnent sur diverses formes d'intelligence artificielle (IA). Les IA sont capables de prendre des décisions de type humain (bien qu'elles puissent en prendre objectivement de bonnes ou de mauvaises). Ces décisions peuvent être multiples, de l'identification d'un objet à l'interprétation de la parole.
Les IA sont formées pour prendre ces décisions pour le robot sur la base d'informations provenant de vastes ensembles de données. Les IA sont ensuite testées pour leur précision (dans quelle mesure elles font ce que nous voulons qu'elles fassent) avant de définir la tâche.
Les IA peuvent être conçues de différentes manières. Prenons l'exemple de l'aspirateur robot. Il pourrait être conçu de sorte que chaque fois qu'il heurte une surface, il redirige dans une direction aléatoire. À l'inverse, il pourrait être conçu pour cartographier son environnement pour trouver des obstacles, couvrir toutes les surfaces et revenir à sa base de chargement. Alors que le premier aspirateur reçoit les données de ses capteurs, le second suit ces données dans un système de cartographie interne. Dans les deux cas, l'IA recueille des informations et prend une décision en conséquence.
Plus un robot est capable de choses complexes, plus il doit interpréter de types d'informations. Il peut également s'agir d'évaluer plusieurs sources d'un type de données, telles que, dans le cas de données sonores, une voix en direct, une radio et le vent.
À mesure que les robots deviennent plus complexes et sont capables d'agir sur une variété d'informations, il devient encore plus important de déterminer sur quelles informations le robot a agi, en particulier lorsqu'un dommage est causé.
Des accidents arrivent
Comme pour tout produit, les choses peuvent mal tourner avec les robots. Parfois, il s'agit d'un problème interne, comme le robot qui ne reconnaît pas une commande vocale. Parfois, c'est externe :le capteur du robot a été endommagé. Et parfois, il peut s'agir des deux, comme le robot qui n'est pas conçu pour fonctionner sur des tapis et qui « trébuche ». Les enquêtes sur les accidents de robots doivent examiner toutes les causes potentielles.
Bien qu'il puisse être gênant que le robot soit endommagé lorsque quelque chose ne va pas, nous sommes beaucoup plus préoccupés lorsque le robot cause des dommages à une personne ou ne parvient pas à atténuer les dommages. Par exemple, si un bras bionique ne parvient pas à saisir une boisson chaude, il la fait tomber sur le propriétaire ; ou si un robot de soins ne parvient pas à enregistrer un appel de détresse lorsque l'utilisateur fragile est tombé.
Pourquoi les enquêtes sur les accidents de robots sont-elles différentes de celles sur les accidents humains ? Notamment, les robots n'ont pas de motifs. Nous voulons savoir pourquoi un robot a pris la décision qu'il a prise en fonction de l'ensemble particulier d'entrées qu'il avait.
Dans l'exemple du bras bionique, s'agissait-il d'une mauvaise communication entre l'utilisateur et la main ? Le robot a-t-il confondu plusieurs signaux ? Verrouiller de manière inattendue ? Dans l'exemple de la personne qui tombe, le robot ne pourrait-il pas « entendre » l'appel à l'aide par-dessus un ventilateur bruyant ? Ou a-t-il eu du mal à interpréter le discours de l'utilisateur ?
La boîte noire
Les enquêtes sur les accidents de robots présentent un avantage clé par rapport aux enquêtes sur les accidents humains :il existe un potentiel pour un témoin intégré. Les avions commerciaux ont un témoin similaire :la boîte noire, construite pour résister aux accidents d'avion et fournir des informations sur les raisons de l'accident. Ces informations sont extrêmement précieuses, non seulement pour comprendre les incidents, mais aussi pour éviter qu'ils ne se reproduisent.
Dans le cadre de RoboTIPS, un projet qui se concentre sur l'innovation responsable pour les robots sociaux (robots qui interagissent avec les gens), nous avons créé ce que nous appelons la boîte noire éthique :un enregistrement interne des entrées du robot et des actions correspondantes. La boîte noire éthique est conçue pour chaque type de robot qu'elle habite et est conçue pour enregistrer toutes les informations sur lesquelles le robot agit. Il peut s'agir d'une activité vocale, visuelle ou même d'ondes cérébrales.
Nous testons la boîte noire éthique sur une variété de robots dans des conditions d'accident en laboratoire et simulées. L'objectif est que la boîte noire éthique devienne la norme dans les robots de toutes marques et applications.
Si les données enregistrées par la boîte noire éthique doivent encore être interprétées en cas d'accident, disposer de ces données en premier lieu est crucial pour nous permettre d'enquêter.
Le processus d'enquête offre la possibilité de s'assurer que les mêmes erreurs ne se reproduisent pas deux fois. La boîte noire éthique est un moyen non seulement de construire de meilleurs robots, mais aussi d'innover de manière responsable dans un domaine passionnant et dynamique.