Crédit :CC0 Domaine Public
Accent, une entreprise de services professionnels, lancera bientôt un nouvel outil visant à aider ses clients à trouver des biais injustes dans les algorithmes d'IA. Une fois qu'un tel parti pris injuste est découvert, les représentants de l'entreprise ont déclaré à la presse, ils peuvent être supprimés.
Alors que les scientifiques et les ingénieurs continuent d'améliorer la technologie de l'IA, de plus en plus d'entreprises utilisent des outils basés sur l'IA pour mener leurs activités. L'utilisation des applications d'IA pour traiter les demandes de crédit devient routinière, par exemple. Mais il y a eu une inquiétude que de telles applications pourraient avoir des biais intégrés, qui produisent des résultats qui pourraient être interprétés comme injustes. De telles applications pourraient, par exemple, avoir des préjugés raciaux ou sexistes ancrés, ce qui pourrait fausser les résultats. En réponse à de telles réclamations, de nombreuses grandes entreprises ont commencé à ajouter des filtres de biais à leur suite d'applications. Mais comme l'ont souligné les représentants d'Accenture, les petites entreprises n'ont probablement pas les ressources pour le faire. Le nouvel outil qu'ils ont développé sera commercialisé en pensant à ces entreprises.
Un prototype du nouvel outil (que certains ont commencé à appeler l'outil d'équité) est actuellement testé sur le terrain avec un partenaire inconnu sur des applications de risque de crédit. La société a annoncé qu'elle prévoyait un lancement en douceur dans un proche avenir. Ils ont également annoncé que l'outil fera partie d'un programme plus vaste proposé par la société appelé AI Launchpad. En plus des outils d'IA, le programme comprend également une formation sur l'éthique et la responsabilité pour les employés.
Pour déterminer quelles sortes de données utilisées par une application d'IA peuvent représenter un biais, l'outil utilise des méthodes statistiques conçues pour comparer des variables prédéfinies comme justes ou injustes. Il examinera également d'autres variables qui pourraient contenir un biais caché. Des données qui incluent le revenu, par exemple, pourrait représenter un préjugé caché contre les femmes ou les minorités, même s'il n'y a pas de données spécifiant le sexe ou la race. L'outil peut également être utilisé pour implémenter des changements dans l'algorithme d'un client, espérons-le le rendre moins biaisé. Mais les représentants d'Accenture notent que cela s'est avéré rendre certains algorithmes moins précis dans l'ensemble.
© 2018 Tech Xplore