L'une des questions urgentes qui se posent avec l'intelligence artificielle est de savoir comment rendre compte des actions des machines qui prennent elles-mêmes des décisions. Crédit :ITU Pictures, sous licence CC BY 2.0
Les technologies numériques telles que l'intelligence artificielle et la robotique, besoin « désespérément » d'un cadre institutionnel et d'un système de valeurs pour aider à réguler l'industrie, a déclaré un expert en éthique à d'éminents scientifiques et décideurs.
Jeroen van den Hoven, professeur d'éthique et de technologie à l'Université de technologie de Delft aux Pays-Bas, s'exprimait lors d'une session sur l'éthique dans les sciences et la technologie à l'EuroScience Open Forum (ESOF) 2018, qui se tient à Toulouse, La France, du 9 au 14 juillet.
« Les gens prennent conscience que cette ère numérique n'est pas neutre…, il nous est présenté principalement par de grandes entreprises qui veulent faire du profit, " il a dit.
Il a appelé à un réseau d'institutions à l'échelle européenne pouvant fournir un ensemble de valeurs, sur la base de la Charte des droits fondamentaux de l'UE, dans lequel l'industrie technologique pourrait opérer.
« Il faut s'installer, comme nous l'avons fait pour la nourriture, pour l'aviation et pour le trafic, … un système élaboré d'institutions qui se penchera sur ce domaine de l'intelligence artificielle.
« Il faut penser à la gouvernance, inspection, surveillance, essai, attestation, classification, standardisation, éducation, toutes ces choses. Ils ne sont pas là. Nous devons désespérément, et très vite, aidons-nous à cela."
Le professeur van den Hoven est membre du Groupe européen d'éthique des sciences et des nouvelles technologies (EGE), un organe consultatif indépendant pour la Commission européenne, qui a organisé la séance à laquelle il s'exprimait.
En mars, l'EGE a publié une déclaration sur l'intelligence artificielle (IA), robotique et systèmes autonomes, qui critiquait l'actuel « patchwork d'initiatives disparates » en Europe qui tentent de s'attaquer aux problèmes sociaux, questions juridiques et éthiques que l'IA a générées. Dans la déclaration, le GEE a appelé à la mise en place d'un cadre structuré.
La Commission européenne a annoncé le 14 juin avoir chargé un groupe de haut niveau de 52 universitaires, la société et l'industrie avec pour mission d'élaborer des lignes directrices sur la politique de l'UE en matière d'IA, y compris les questions éthiques telles que l'équité, sécurité, transparence et le respect des droits fondamentaux.
Le groupe d'experts, qui comprend des représentants des leaders de l'industrie de l'IA tels que Google, BMW et Santander, doivent présenter leurs orientations à la Commission européenne début 2019.
Biais
Les problèmes éthiques entourant l'IA - tels que les biais dans les algorithmes d'apprentissage automatique et la façon de superviser la prise de décision des machines autonomes - ont également suscité de nombreuses discussions lors de la conférence ESOF 2018.
Une préoccupation majeure émergeant avec le développement rapide de l'apprentissage automatique, est la question de savoir comment rendre compte des actions d'une machine. C'est un problème particulier lors de l'utilisation de l'IA basée sur des réseaux de neurones, un système complexe mis en place pour imiter le cerveau humain qui lui permet d'apprendre à partir de grands ensembles de données. Cela aboutit souvent à ce que l'algorithme devienne ce qu'on appelle une « boîte noire, " où il est possible de voir ce qui entre et ce qui sort, mais pas comment le résultat a été obtenu.
Maaike Harbers, professeur-chercheur à l'Université des sciences appliquées de Rotterdam aux Pays-Bas, dit qu'il s'agissait d'une question importante dans l'armée, où des drones armés sont utilisés pour mener des actions.
« Dans le domaine militaire, un concept très important est le contrôle humain significatif, ", a-t-elle déclaré. "Nous ne pouvons contrôler ou diriger des machines autonomes que si nous comprenons ce qui se passe."
Le professeur Harbers a ajouté qu'une bonne conception de l'interface entre les humains et les machines peut aider à garantir que les humains exercent un contrôle à trois étapes importantes - la saisie des données, traitement et raisonnement, et la sortie ou l'action.
Même dans les technologies qui utilisent l'IA à des fins qui semblent extrêmement positives, tels que les robots sociaux compagnons pour les enfants, soulèvent des questions éthiques délicates. Le public de la conférence a appris que les chercheurs travaillant dans ce domaine sont aux prises avec l'effet que ces technologies peuvent avoir sur les relations familiales, par exemple, ou s'ils pourraient créer des inégalités dans la société, ou s'ils pourraient créer un isolement social.
Dans le domaine du transport automatisé, les chercheurs étudient également l'impact que les voitures autonomes pourraient avoir sur des questions plus larges telles que la justice et l'égalité. Ils étudient des questions allant de la façon d'assurer l'égalité d'accès aux nouvelles formes de transport à qui devrait bénéficier des économies de coûts associées au transport automatisé.
Cependant, les valeurs que nous inculquons à l'IA peuvent être un facteur clé dans l'acceptation par le public des nouvelles technologies.
L'un des dilemmes moraux les plus connus concernant les voitures autonomes, par exemple, est le soi-disant problème de chariot. Cela pose la question de savoir si un véhicule autonome se dirigeant vers un accident impliquant un groupe de personnes devrait l'éviter en déviant sur un chemin qui ne heurterait qu'une seule personne.
Dr Ebru Burcu Dogan de l'Institut Vedecom en France, cette recherche montre que si les gens étaient en faveur d'une solution utilitaire au dilemme - par exemple, tuant le conducteur plutôt que cinq piétons - personnellement, ils ne voudraient pas acheter ou monter dans un véhicule programmé de cette manière.
« Nous voulons tous bénéficier de la mise en place d'une technologie, mais on ne veut pas forcément changer de comportement, ou adopter un comportement nécessaire pour y arriver."