Crédit :Ahmet Misirligul/Shutterstock
Le court métrage Slaughterbots dépeint un futur proche dans lequel des essaims de micro drones assassinent des milliers de personnes pour leurs convictions politiques. Publié en novembre 2017 par des universitaires et des militants mettant en garde contre les dangers de l'intelligence artificielle (IA) avancée, c'est vite devenu viral, attirant plus de 3 millions de vues à ce jour. Elle a contribué à susciter un débat public sur l'avenir des armes autonomes et à faire pression sur les diplomates réunis à la Convention des Nations Unies sur les armes classiques.
Mais ce genre de narration spéculative de science-fiction n'est pas seulement utile pour attirer l'attention. Les personnes qui conçoivent et construisent des technologies de pointe peuvent utiliser des histoires pour considérer les conséquences de leur travail et s'assurer qu'elles sont utilisées à bon escient. Et nous pensons que ce genre de « prototypage de science-fiction » ou de « fiction de conception » pourrait aider à empêcher les préjugés humains de se frayer un chemin dans les nouvelles technologies, enracinant davantage les préjugés et les injustices de la société.
Un biais peut conduire à la préférence arbitraire de certaines catégories (de résultats, personnes, ou des idées) par rapport aux autres. Par exemple, certaines personnes peuvent avoir des préjugés contre l'embauche de femmes pour des postes de direction, qu'ils en soient conscients ou non.
La technologie construite autour de données qui enregistrent un tel biais peut finir par reproduire le problème. Par exemple, un logiciel de recrutement conçu pour sélectionner les meilleurs CV pour un poste particulier peut être programmé pour rechercher des caractéristiques qui reflètent un préjugé inconscient envers les hommes. Dans quel cas, l'algorithme finira par favoriser les CV masculins. Et ce n'est pas théorique, c'est en fait arrivé à Amazon.
Concevoir des algorithmes sans tenir compte d'éventuelles implications négatives a été comparé à des médecins "écrivant sur les avantages d'un traitement donné et ignorant complètement les effets secondaires, peu importe leur gravité."
Certaines entreprises technologiques et chercheurs tentent de s'attaquer au problème. Par exemple, Google a élaboré un ensemble de principes éthiques pour guider son développement de l'IA. Et des universitaires britanniques ont lancé une initiative appelée Not-Equal qui vise à encourager une plus grande équité et justice dans la conception et l'utilisation de la technologie.
Le problème est que, publiquement, les entreprises ont tendance à n'offrir qu'une vision positive des conséquences potentielles des technologies du futur proche. Par exemple, les voitures sans conducteur sont souvent présentées comme résolvant tous nos problèmes de transport, du coût à la sécurité, ignorant les dangers accrus des cyberattaques ou le fait qu'elles pourraient encourager les gens à moins marcher ou faire du vélo.
La difficulté à comprendre le fonctionnement des technologies numériques, en particulier ceux qui sont fortement pilotés par des algorithmes obscurs, rend également plus difficile pour les gens d'avoir une vision complexe et globale des problèmes. Cette situation produit une tension entre un récit positif et rassurant et le vague soupçon que des préjugés sont ancrés dans une certaine mesure dans les technologies qui nous entourent. C'est là que nous pensons que la narration à travers la conception-fiction peut entrer en jeu.
Les histoires sont une méthode naturelle de réflexion sur les possibilités et les situations complexes, et nous les avons entendus toute notre vie. La science-fiction peut nous aider à spéculer sur l'impact des technologies du futur proche sur la société, comme le fait Slaughterbots. Cela peut même inclure des questions de justice sociale, comme la façon dont certains groupes, comme les réfugiés et les migrants, peuvent être exclus des innovations numériques.
Révéler le futur (possible)
Les histoires de fiction sur le design offrent une nouvelle façon pour les concepteurs, ingénieurs et futurologues (entre autres) pour réfléchir à l'impact de la technologie d'un point de vue humain et le relier à d'éventuels besoins futurs. Avec un mélange de logique et d'imagination, la conception-fiction peut révéler des aspects de la façon dont la technologie peut être adoptée et utilisée, entamer des conversations sur ses futures ramifications.
Par exemple, la nouvelle "Crime-sourcing" explore ce qui pourrait arriver si l'IA utilisait des informations de crowdsourcing et une base de données criminelle pour prédire qui pourrait commettre un meurtre. Les chercheurs ont découvert que parce que la base de données était pleine de personnes appartenant à des groupes ethniques minoritaires qui, pour des raisons sociales, étaient statistiquement plus susceptibles de récidiver, le modèle de "crime-sourcing" était plus susceptible de suspecter à tort les minorités que les blancs.
Vous n'avez pas besoin d'être un écrivain talentueux ou de faire un film élégant pour produire de la fiction design. Des activités de remue-méninges impliquant des cartes et des storyboards ont été utilisées pour développer la fiction de conception et aider à développer le processus de narration. La généralisation des ateliers utilisant ce type d'outils permettrait à plus d'ingénieurs, les entrepreneurs et les décideurs politiques à utiliser cette méthode d'évaluation. Et rendre le travail résultant accessible au public aiderait à exposer les biais potentiels dans les technologies avant qu'ils n'affectent la société.
Encourager les concepteurs à créer et partager plus d'histoires de cette manière garantirait que le récit qui sous-tend la nouvelle technologie ne présente pas seulement une image positive, ni extrêmement négative ou dystopique. Au lieu, les gens pourront apprécier les deux aspects de ce qui se passe autour de nous.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.