L'étude, menée par des chercheurs de l'Université chinoise de Hong Kong, a analysé les données de plus d'un million de demandes de prêt provenant d'une plateforme chinoise de prêt en ligne. Ils ont constaté que les candidats qui parlaient un dialecte minoritaire étaient moins susceptibles d’obtenir un prêt, même après avoir pris en compte d’autres facteurs tels que les antécédents de crédit, le revenu et l’éducation.
Les chercheurs estiment que cette discrimination est due au fait que les sociétés de technologie financière utilisent souvent l’intelligence artificielle (IA) et des algorithmes d’apprentissage automatique pour prendre des décisions concernant les demandes de prêt. Ces algorithmes sont formés sur des données souvent biaisées contre les dialectes minoritaires. En conséquence, ils sont plus susceptibles de rejeter les demandes de prêt émanant de personnes parlant un dialecte minoritaire.
Cette discrimination a un impact significatif sur le bien-être financier des locuteurs de dialectes minoritaires. Il leur est alors plus difficile d’emprunter de l’argent, de créer une entreprise et d’investir dans leur éducation. Cela peut conduire à la pauvreté, au chômage et à d’autres problèmes sociaux.
Les chercheurs recommandent aux entreprises de technologie financière de prendre des mesures pour lutter contre cette discrimination. Ils doivent veiller à ce que leurs algorithmes d’IA et d’apprentissage automatique ne soient pas biaisés à l’encontre des dialectes minoritaires. Ils devraient également apporter davantage de soutien aux locuteurs de dialectes minoritaires, par exemple en proposant des formations en littératie financière et des services de traduction.
La discrimination à l’égard des personnes parlant des dialectes minoritaires constitue un problème grave auquel il faut s’attaquer. Les entreprises Fintech ont la responsabilité de garantir que leurs produits et services sont accessibles à tous, quelle que soit leur langue ou leur dialecte.