Crédit :Sigismund von Dobschütz/Wikimedia Commons, CC BY-SA 3.0
Des chercheurs de l'Université de Toronto et de l'Université de Cambridge étudient comment l'âgisme - les préjugés contre les individus en fonction de l'âge - peut être encodé dans des technologies telles que l'intelligence artificielle, que beaucoup d'entre nous rencontrent maintenant quotidiennement.
Ce biais lié à l'âge dans l'IA, également appelé « âgisme numérique », est exploré dans un nouvel article dirigé par Charlene Chu, scientifique affiliée à la branche de recherche KITE du Toronto Rehabilitation Institute, qui fait partie du University Health Network (UHN). et professeure adjointe à la Faculté des sciences infirmières Lawrence S. Bloomberg.
L'article a été récemment publié dans The Gerontologist .
« La pandémie de COVID-19 a accru notre prise de conscience de la dépendance de notre société vis-à-vis de la technologie », déclare Chu. "Un grand nombre d'adultes âgés se tournent vers la technologie dans leur vie quotidienne, ce qui a créé un sentiment d'urgence pour les chercheurs d'essayer de comprendre l'âgisme numérique, ainsi que les risques et les méfaits associés aux biais de l'IA."
Chu et son équipe de recherche composée de juristes, d'informaticiens, de philosophes et de spécialistes des sciences sociales en bioéthique et en gérontologie, notent que les stéréotypes sont profondément ancrés dans les algorithmes d'IA, des recherches récentes se concentrant sur des exemples de préjugés raciaux et sexistes. Cependant, les solutions pour lutter contre les biais de l'IA ne sont pas simples, explique Chu. Elle et son équipe suggèrent qu'il existe une série de « cycles d'injustice » qui se produisent dans le développement technologique, de la conception initiale aux tests et à la mise en œuvre.
"Cumulativement, ces cycles produisent un biais implicite qui est intégré à la fonction de la technologie et qui exclut les personnes âgées de manière disproportionnée", dit-elle.
Rebecca Biason de Bloomberg Nursing a récemment parlé avec Chu de son travail et des implications de l'âgisme numérique pour les personnes âgées.
Comment la technologie ou les applications peuvent-elles perpétuer l'âgisme numérique ?
La technologie alimentée par l'IA peut prendre en compte l'âge de plusieurs manières, certaines étant plus évidentes que d'autres. La plupart des applications créées pour les personnes âgées ont tendance à se concentrer sur les maladies chroniques et la gestion des soins de santé, et sont rarement associées au plaisir ou aux loisirs. Au lieu de cela, la technologie créée pour les personnes âgées a tendance à les considérer sous un angle biomédical, générant une technologie axée sur un besoin lié à la santé.
Cette représentation âgiste des personnes âgées se répercute sur la conception de la technologie. Les aspects normaux du vieillissement, tels que les différences de fonction motrice ou de perception, ne sont pas pris en considération. C'est l'un des « cycles d'injustice » qui perpétue les préjugés liés à l'âge décrits dans mon article et qui sous-tend l'exclusion des voix et des données des personnes âgées.
Comment l'exclusion des personnes âgées contribue-t-elle à l'âgisme numérique ?
Les données utilisées pour construire divers modèles et algorithmes ont ensuite un impact sur les performances de l'algorithme. En ce qui concerne le biais lié à l'âge, les personnes âgées constituent le groupe d'individus utilisant la technologie qui connaît la croissance la plus rapide, mais une grande partie des données utilisées pour créer des systèmes d'IA sont basées sur des personnes plus jeunes. Ceci, à son tour, génère des applications et des technologies qui ne sont pas conçues pour les personnes âgées, de sorte qu'elles ne les utilisent pas.
Cette inadéquation entre la conception et la technologie contribue à un manque de données sur les personnes âgées, ce qui amplifie leur exclusion tout au long du pipeline de la création technologique.
L'âgisme est le préjugé le plus socialement accepté malgré le fait que c'est une éventualité pour nous tous. Alors que la démographie des populations commence à changer, de plus en plus d'adultes âgés se tourneront vers une technologie qui n'est pas conçue pour eux.
Une partie de nos travaux futurs consiste à illustrer efficacement l'intégration de l'âgisme dans l'IA et le développement technologique et à suggérer des moyens d'atténuer cela.
Quelles sont certaines de vos premières recommandations pour lutter contre l'âgisme numérique chez les personnes âgées ?
La sensibilisation à l'âgisme numérique est la première étape et est essentielle pour aller de l'avant. L'âge recoupe d'autres dimensions de la vulnérabilité et doit être pris en compte. Une recommandation structurelle consiste à discuter de la nécessité d'une co-conception interdisciplinaire, c'est-à-dire d'inclure les personnes âgées dans la conception technologique dès le début et non à la fin, et d'ensembles de données plus représentatifs des personnes âgées.
Une chose que mon équipe a faite a été de passer au peigne fin The AI Ethics Guidelines Global Inventory, qui est un référentiel qui compile des documents de recommandation sur la façon dont les systèmes d'IA peuvent mener une prise de décision automatisée éthique. Bon nombre de ces lignes directrices ont souligné l'équité en tant que principe éthique directeur clé, ainsi que la nécessité de réduire les préjugés. Sur ces près de 150 documents créés par des organisations établies, des gouvernements et des groupes internationaux, nous avons trouvé très peu de mentions d'âge, de préjugés liés à l'âge ou d'âgisme par rapport aux préjugés raciaux ou liés au sexe.
Maintenant, mon équipe essaie de déterminer les implications sociétales et éthiques, ainsi que le degré de préjudice actuellement causé par l'âgisme numérique. Le travail est fondamental pour attirer l'attention sur cette question alors que nous nous efforçons de définir le problème.