Crédit :Shutterstock
L'intelligence artificielle (IA) prend déjà des décisions dans les domaines des affaires, des soins de santé et de la fabrication. Mais les algorithmes d'IA obtiennent généralement toujours l'aide de personnes appliquant des contrôles et faisant le dernier appel.
Que se passerait-il si les systèmes d'IA devaient prendre des décisions indépendantes, et celles qui pourraient signifier la vie ou la mort pour les humains ?
La culture pop a longtemps dépeint notre méfiance générale envers l'IA. Dans le film de science-fiction "I, Robot" de 2004, le détective Del Spooner (joué par Will Smith) se méfie des robots après avoir été sauvé par l'un d'eux d'un accident de voiture, tandis qu'une fille de 12 ans a été laissée se noyer. Il dit:"J'étais le choix logique. Il a calculé que j'avais 45% de chances de survie. Sarah n'avait que 11% de chances. C'était le bébé de quelqu'un - 11% est plus que suffisant. Un être humain aurait su que ."
Contrairement aux humains, les robots manquent de conscience morale et suivent "l'éthique" programmée en eux. En même temps, la moralité humaine est très variable. La "bonne" chose à faire dans n'importe quelle situation dépendra de qui vous demandez.
Pour que les machines nous aident à exploiter pleinement leur potentiel, nous devons nous assurer qu'elles se comportent de manière éthique. La question devient donc :comment l'éthique des développeurs et des ingénieurs de l'IA influence-t-elle les décisions prises par l'IA ?
L'avenir de la conduite autonome
Imaginez un avenir avec des voitures autonomes entièrement autonomes. Si tout fonctionne comme prévu, le trajet du matin sera l'occasion de se préparer pour les réunions de la journée, de se tenir au courant de l'actualité ou de s'asseoir et de se détendre.
Mais que se passe-t-il si les choses tournent mal ? La voiture s'approche d'un feu rouge, mais soudain les freins lâchent et l'ordinateur doit prendre une décision en une fraction de seconde. Il peut faire une embardée dans un poteau à proximité et tuer le passager, ou continuer et tuer le piéton devant.
L'ordinateur contrôlant la voiture n'aura accès qu'à des informations limitées collectées par les capteurs de la voiture et devra prendre une décision en fonction de cela. Aussi dramatique que cela puisse paraître, nous ne sommes qu'à quelques années d'être potentiellement confrontés à de tels dilemmes.
Les voitures autonomes offriront généralement une conduite plus sûre, mais les accidents seront inévitables, en particulier dans un avenir prévisible, lorsque ces voitures partageront les routes avec des conducteurs humains et d'autres usagers de la route.
Tesla ne produit pas encore de voitures entièrement autonomes, bien qu'elle envisage de le faire. En cas de collision, les voitures Tesla n'activent pas ou ne désactivent pas automatiquement le système de freinage d'urgence automatique (AEB) si un conducteur humain est aux commandes.
En d'autres termes, les actions du conducteur ne sont pas perturbées, même s'il est lui-même à l'origine de la collision. Au lieu de cela, si la voiture détecte une collision potentielle, elle envoie des alertes au conducteur pour qu'il agisse.
En mode "pilote automatique", cependant, la voiture devrait freiner automatiquement pour les piétons. Certains prétendent que si la voiture peut empêcher une collision, alors il y a une obligation morale pour elle de passer outre les actions du conducteur dans tous les scénarios. Mais voudrions-nous qu'une voiture autonome prenne cette décision ?
Que vaut une vie ?
Et si l'ordinateur d'une voiture pouvait évaluer la « valeur » relative du passager dans sa voiture et du piéton ? Si sa décision tenait compte de cette valeur, techniquement, elle ne ferait qu'effectuer une analyse coûts-avantages.
Cela peut sembler alarmant, mais il existe déjà des technologies en cours de développement qui pourraient permettre que cela se produise. Par exemple, le Meta (anciennement Facebook) récemment rebaptisé a une reconnaissance faciale très évoluée qui peut facilement identifier les individus dans une scène.
Si ces données étaient intégrées au système d'IA d'un véhicule autonome, l'algorithme pourrait attribuer une valeur monétaire à chaque vie. Cette possibilité est décrite dans une étude approfondie de 2018 menée par des experts du Massachusetts Institute of Technology et des collègues.
Grâce à l'expérience Moral Machine, les chercheurs ont proposé divers scénarios de voiture autonome qui obligeaient les participants à décider de tuer un piéton sans abri ou un piéton cadre.
Les résultats ont révélé que les choix des participants dépendaient du niveau d'inégalité économique dans leur pays, où plus d'inégalité économique signifiait qu'ils étaient plus susceptibles de sacrifier l'homme sans abri.
Bien qu'elle ne soit pas aussi évoluée, une telle agrégation de données est déjà utilisée avec le système de crédit social chinois, qui décide des droits sociaux dont bénéficient les personnes.
L'industrie des soins de santé est un autre domaine où nous verrons l'IA prendre des décisions qui pourraient sauver ou nuire aux humains. Les experts développent de plus en plus l'IA pour détecter les anomalies de l'imagerie médicale et aider les médecins à hiérarchiser les soins médicaux.
Pour l'instant, les médecins ont le dernier mot, mais à mesure que ces technologies deviennent de plus en plus avancées, que se passera-t-il lorsqu'un médecin et un algorithme d'IA ne feront pas le même diagnostic ?
Un autre exemple est un système automatisé de rappel de médicaments. Comment le système doit-il réagir si un patient refuse de prendre ses médicaments ? Et comment cela affecte-t-il l'autonomie du patient et la responsabilité globale du système ?
Les drones et les armes alimentés par l'IA sont également préoccupants sur le plan éthique, car ils peuvent prendre la décision de tuer. Il existe des points de vue divergents sur la question de savoir si ces technologies devraient être complètement interdites ou réglementées. Par exemple, l'utilisation de drones autonomes peut être limitée à la surveillance.
Certains ont appelé à ce que les robots militaires soient programmés avec éthique. Mais cela soulève des questions sur la responsabilité du programmeur dans le cas où un drone tue des civils par erreur.
Dilemmes philosophiques
Il y a eu de nombreux débats philosophiques concernant les décisions éthiques que l'IA devra prendre. L'exemple classique de ceci est le problème du chariot.
Les gens ont souvent du mal à prendre des décisions qui pourraient changer leur vie. Lors de l'évaluation de la façon dont nous réagissons à de telles situations, une étude a rapporté que les choix peuvent varier en fonction d'une série de facteurs, notamment l'âge, le sexe et la culture du répondant.
En ce qui concerne les systèmes d'IA, les processus de formation des algorithmes sont essentiels à leur fonctionnement dans le monde réel. Un système développé dans un pays peut être influencé par les opinions, la politique, l'éthique et la morale de ce pays, le rendant impropre à une utilisation dans un autre lieu et à un autre moment.
Si le système contrôlait un avion ou guidait un missile, vous voudriez un niveau élevé de confiance qu'il a été entraîné avec des données représentatives de l'environnement dans lequel il est utilisé.
Parmi les exemples d'échecs et de biais dans la mise en œuvre de la technologie, citons le distributeur de savon raciste et l'étiquetage automatique inapproprié des images.
Si vous avez déjà eu du mal à saisir l'importance de la diversité dans la technologie et son impact sur la société, regardez cette vidéo pic.twitter. com/ZJ1Je1C4NW
— Chukwuemeka Afigbo (@nke_ise) 16 août 2017
L'IA n'est ni "bonne" ni "mauvaise". Les effets qu'il aura sur les gens dépendront de l'éthique de ses développeurs. Donc, pour en tirer le meilleur parti, nous devrons parvenir à un consensus sur ce que nous considérons comme "éthique".
Alors que les entreprises privées, les organisations publiques et les instituts de recherche ont leurs propres lignes directrices pour une IA éthique, les Nations Unies ont recommandé de développer ce qu'elles appellent "un instrument global de normalisation mondiale" pour fournir un cadre mondial d'IA éthique et garantir la protection des droits de l'homme.