Lorsque les algorithmes prennent des décisions avec des conséquences réelles, ils doivent être justes. Crédit :R-Type/Shutterstock.com
L'utilisation de machines pour augmenter l'activité humaine n'a rien de nouveau. Les hiéroglyphes égyptiens montrent l'utilisation de voitures hippomobiles avant même 300 av. La littérature indienne ancienne telle que "Silapadikaram" a décrit des animaux utilisés pour l'agriculture. Et un coup d'œil à l'extérieur montre qu'aujourd'hui, les gens utilisent des véhicules motorisés pour se déplacer.
Là où dans le passé les êtres humains se sont augmentés de manière physique, maintenant la nature de l'augmentation est aussi plus intelligente. De nouveau, tout ce qu'il faut faire est de se tourner vers les voitures - les ingénieurs sont apparemment sur le point de concevoir des voitures autonomes guidées par l'intelligence artificielle. D'autres appareils sont à divers stades de devenir plus intelligents. Le long du chemin, les interactions entre les hommes et les machines évoluent.
Les intelligences machine et humaine apportent des forces différentes à la table. Des chercheurs comme moi s'efforcent de comprendre comment les algorithmes peuvent compléter les compétences humaines tout en minimisant les inconvénients liés à l'utilisation de l'intelligence artificielle. En tant qu'expert en apprentissage automatique, Je prédis qu'il y aura bientôt un nouvel équilibre entre l'intelligence humaine et machine, un changement que l'humanité n'a jamais rencontré auparavant.
De tels changements suscitent souvent la peur de l'inconnu, et dans ce cas, l'une des inconnues est la façon dont les machines prennent des décisions. C'est particulièrement le cas lorsqu'il s'agit d'équité. Les machines peuvent-elles être justes d'une manière que les gens comprennent ?
Quand les gens sont illogiques
Aux humains, l'équité est souvent au cœur d'une bonne décision. La prise de décision a tendance à s'appuyer à la fois sur les centres émotionnels et rationnels de notre cerveau, ce que le lauréat du prix Nobel Daniel Kahneman appelle la pensée Système 1 et Système 2. Les théoriciens de la décision pensent que les centres émotionnels du cerveau ont été assez bien développés à travers les âges, tandis que les zones cérébrales impliquées dans la pensée rationnelle ou logique ont évolué plus récemment. La partie rationnelle et logique du cerveau, ce que Kahneman appelle le système 2, a donné aux humains un avantage sur les autres espèces.
Cependant, parce que le système 2 a été développé plus récemment, la prise de décision humaine est souvent boguée. C'est pourquoi de nombreuses décisions sont illogiques, incohérent et sous-optimal.
Par exemple, l'inversion des préférences est un phénomène bien connu mais illogique que les gens manifestent :une personne qui préfère le choix A à B et B à C ne préfère pas nécessairement A à C. Ou considérez que les chercheurs ont constaté que les juges des tribunaux pénaux ont tendance à être plus indulgents avec les décisions de libération conditionnelle juste après les pauses déjeuner qu'à la fin de la journée.
Une partie du problème est que notre cerveau a du mal à calculer avec précision les probabilités sans formation appropriée. Nous utilisons souvent des informations non pertinentes ou sommes influencés par des facteurs externes. C'est là que l'intelligence artificielle peut être utile.
Les machines sont logiques… à la faute
Une intelligence machine bien conçue peut être cohérente et utile pour prendre des décisions optimales. De par leur nature, ils peuvent être logiques au sens mathématique - ils ne s'écartent tout simplement pas des instructions du programme. Dans un algorithme d'apprentissage automatique bien conçu, on ne rencontrerait pas les inversions de préférence illogiques que les gens présentent fréquemment, par exemple. Dans les marges d'erreurs statistiques, les décisions de l'intelligence artificielle sont cohérentes.
Le problème est que l'intelligence artificielle n'est pas toujours bien conçue.
Au fur et à mesure que les algorithmes deviennent plus puissants et sont incorporés dans de plus en plus de parties de la vie, les scientifiques comme moi attendent ce nouveau monde, un avec un équilibre différent entre la machine et l'intelligence humaine, être la norme du futur.
Dans le système de justice pénale, les juges utilisent des algorithmes lors des décisions de libération conditionnelle pour calculer les risques de récidive. En théorie, cette pratique pourrait surmonter tout biais introduit par les pauses déjeuner ou l'épuisement en fin de journée. Pourtant, lorsque des journalistes de ProPublica ont mené une enquête, ils ont trouvé que ces algorithmes étaient injustes :les hommes blancs ayant déjà été condamnés pour vol à main armée étaient considérés comme présentant un risque plus faible que les femmes afro-américaines reconnues coupables de délits.
Il existe de nombreux autres exemples d'algorithmes d'apprentissage automatique qui se sont révélés plus tard injustes, y compris Amazon et son recrutement et l'étiquetage d'image de Google.
Les chercheurs sont conscients de ces problèmes et se sont efforcés d'imposer des restrictions qui garantissent l'équité dès le départ. Par exemple, un algorithme appelé CB (color blind) impose la restriction que toutes les variables discriminantes, comme la race ou le sexe, ne doit pas être utilisé pour prédire les résultats. Un autre, appelé DP (parité démographique), veille à ce que les groupes soient proportionnellement équitables. En d'autres termes, la proportion du groupe recevant un résultat positif est égale ou équitable à la fois dans les groupes discriminants et non discriminants.
Les chercheurs et les décideurs politiques commencent à prendre le relais. IBM a ouvert plusieurs de ses algorithmes et les a publiés sous la bannière « AI Fairness 360 ». Et la National Science Foundation a récemment accepté des propositions de scientifiques qui souhaitent renforcer la fondation de recherche qui sous-tend l'équité en IA.
Améliorer l'équité des décisions des machines
Je pense que les algorithmes de machine équitable existants sont faibles à bien des égards. Cette faiblesse découle souvent des critères utilisés pour assurer l'équité. La plupart des algorithmes qui imposent des « restrictions d'équité » telles que la parité démographique (DP) et le daltonisme (CB) visent à garantir l'équité au niveau des résultats. S'il y a deux personnes de sous-populations différentes, les restrictions imposées garantissent que le résultat de leurs décisions est cohérent dans tous les groupes.
Bien qu'il s'agisse d'un bon premier pas, les chercheurs doivent regarder au-delà des seuls résultats et se concentrer également sur le processus. Par exemple, lorsqu'un algorithme est utilisé, les sous-populations affectées modifieront naturellement leurs efforts en réponse. Ces changements doivent être pris en compte, trop. Parce qu'ils n'ont pas été pris en compte, mes collègues et moi nous concentrons sur ce que nous appelons « l'équité de la meilleure réponse ».
Si les sous-populations sont intrinsèquement similaires, leur niveau d'effort pour atteindre le même résultat devrait également être le même même après la mise en œuvre de l'algorithme. Cette définition simple de la meilleure équité de réponse n'est pas satisfaite par les algorithmes basés sur DP et CB. Par exemple, DP exige que les taux positifs soient égaux même si l'une des sous-populations ne fait pas d'effort. En d'autres termes, les personnes d'une sous-population devraient travailler beaucoup plus fort pour obtenir le même résultat. Alors qu'un algorithme basé sur DP le considérerait comme juste, après tout, les deux sous-populations ont obtenu le même résultat – la plupart des humains ne le feraient pas.
Il existe une autre restriction d'équité connue sous le nom de cotes égalisées (EO) qui satisfait la notion de meilleure équité de réponse - elle garantit l'équité même si vous tenez compte de la réponse des sous-populations. Cependant, imposer la restriction, l'algorithme doit connaître les variables discriminantes (par exemple, noir blanc), et cela finira par définir des seuils explicitement différents pour les sous-populations. les seuils seront explicitement différents pour les candidats blancs et noirs à la libération conditionnelle.
Bien que cela contribuerait à accroître l'équité des résultats, une telle procédure peut violer la notion d'égalité de traitement requise par le Civil Rights Act de 1964. Pour cette raison, un article de California Law Review a exhorté les décideurs politiques à modifier la législation afin que des algorithmes équitables qui utilisent cette approche puissent être utilisés sans aucune répercussion juridique potentielle.
Ces contraintes nous motivent, mes collègues et moi, à développer un algorithme qui est non seulement « juste à la meilleure réponse » mais qui n'utilise pas non plus explicitement de variables discriminantes. Nous démontrons théoriquement les performances de nos algorithmes à l'aide d'ensembles de données simulés et d'échantillons réels d'ensembles de données provenant du Web. Lorsque nous avons testé nos algorithmes avec les ensembles de données d'échantillons largement utilisés, nous avons été surpris de leurs performances par rapport aux algorithmes open source assemblés par IBM.
Notre travail suggère que, malgré les défis, les machines et les algorithmes continueront d'être utiles aux humains, tant pour les emplois physiques que pour les emplois du savoir. Nous devons rester vigilants pour que toutes les décisions prises par les algorithmes soient justes, et il est impératif que chacun comprenne ses limites. Si nous pouvons le faire, alors il est possible que l'intelligence humaine et l'intelligence artificielle se complètent de manière précieuse.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.