• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'IA utilisée par les organisations humanitaires pourrait approfondir les tendances néocoloniales

    Crédit :Liu zishan/Shutterstock.com

    Intelligence artificielle, ou IA, connaît une période d'expansion massive. Ce n'est pas parce que les ordinateurs ont atteint une conscience humaine, mais en raison des progrès de l'apprentissage automatique, où les ordinateurs apprennent à partir d'énormes bases de données comment classer les nouvelles données. À la pointe de la technologie se trouvent les réseaux de neurones qui ont appris à reconnaître les visages humains ou à jouer au Go.

    Reconnaître des modèles dans les données peut également être utilisé comme un outil prédictif. L'IA est appliquée aux échocardiogrammes pour prédire les maladies cardiaques, aux données du lieu de travail pour prédire si les employés vont partir, et aux flux de médias sociaux pour détecter les signes de dépression naissante ou de tendances suicidaires. Tous les domaines où les données sont abondantes - et cela signifie à peu près tous les aspects de la vie - sont surveillés par le gouvernement ou les entreprises pour l'application de l'IA.

    Une activité qui semble actuellement éloignée de l'IA est l'humanitarisme; l'organisation de l'aide sur le terrain à d'autres êtres humains en crise à cause de la guerre, famine ou autre catastrophe. Mais les organisations humanitaires aussi adopteront l'IA. Pourquoi? Parce qu'il semble capable de répondre à des questions au cœur de l'humanitarisme – des questions telles que qui devons-nous sauver, et comment être efficace à grande échelle. L'IA résonne également fortement avec les modes de pensée et d'action humanitaires existants, en particulier les principes de neutralité et d'universalité. L'humanitarisme (on le croit) ne prend pas parti, est impartial dans son application et offre une aide indépendamment des particularités de la situation locale.


    La façon dont l'apprentissage automatique consomme le big data et produit des prédictions suggère certainement qu'il peut à la fois saisir l'énormité du défi humanitaire et fournir une réponse basée sur les données. Mais la nature des opérations d'apprentissage automatique signifie qu'elles vont en fait approfondir certains des problèmes de l'humanitarisme, et en introduire de nouveaux.

    Les maths

    Explorer ces questions nécessite un petit détour dans les opérations concrètes du machine learning, si nous voulons contourner la désinformation et la mystification qui s'attachent au terme IA. Parce qu'il n'y a pas d'intelligence dans l'intelligence artificielle. Il n'apprend pas non plus, même si son nom technique est apprentissage automatique.

    L'IA est simplement une minimisation mathématique. Souvenez-vous qu'à l'école vous adaptiez une ligne droite à un ensemble de points, choisir la ligne qui minimise les différences globales ? L'apprentissage automatique fait de même pour les modèles complexes, adapter les caractéristiques d'entrée aux résultats connus en minimisant une fonction de coût. Le résultat devient un modèle qui peut être appliqué à de nouvelles données pour prédire le résultat.

    Toutes les données peuvent passer par des algorithmes d'apprentissage automatique. Tout ce qui peut être réduit à des nombres et étiqueté avec un résultat peut être utilisé pour créer un modèle. Les équations ne savent pas ou ne se soucient pas si les chiffres représentent les ventes d'Amazon ou les victimes du tremblement de terre.

    Cette banalité du machine learning fait aussi sa puissance. C'est une compression numérique généralisée des questions qui comptent – ​​il n'y a aucune compréhension dans le calcul; les modèles indiquent une corrélation, pas de causalité. Le seul renseignement vient dans le même sens que le renseignement militaire; C'est, ciblage. Les opérations consistent à minimiser la fonction de coût afin d'optimiser le résultat.

    Et les modèles produits par l'apprentissage automatique peuvent être difficiles à transformer en raisonnement humain. Pourquoi a-t-il choisi cette personne comme un mauvais risque de libération conditionnelle ? Que représente ce modèle ? On ne peut pas forcément le dire. Il y a donc une opacité au cœur des méthodes. Il n'augmente pas l'agence humaine mais la déforme.

    Logique du puissant

    L'apprentissage automatique ne se contente pas de prendre des décisions sans donner de raisons, elle modifie notre idée même de la raison. C'est-à-dire, il change ce qui est connaissable et ce qui est compris comme réel.

    Par exemple, dans certaines juridictions des États-Unis, si un algorithme produit une prédiction qu'une personne arrêtée est susceptible de récidiver, cette personne se verra refuser la libération sous caution. La recherche de modèles dans les données devient une autorité de calcul qui déclenche des conséquences substantielles.

    Apprentissage automatique, alors, n'est pas seulement une méthode mais une philosophie machinique où le calcul abstrait est compris pour accéder à une vérité qui est considérée comme supérieure à la création de sens de la perception ordinaire. Et en tant que tel, les calculs de la science des données peuvent finir par compter plus que des témoignages.

    Bien sûr, le champ humanitaire n'est pas naïf face aux dangers de la datafication. Il est bien connu que l'apprentissage automatique pourrait propager la discrimination car il apprend à partir de données sociales qui sont elles-mêmes souvent biaisées. Et donc les institutions humanitaires seront naturellement plus prudentes que la plupart pour assurer toutes les garanties possibles contre les données de formation biaisées.

    Mais le problème va au-delà des préjugés explicites. L'effet le plus profond de l'apprentissage automatique est de produire les catégories à travers lesquelles nous penserons à nous-mêmes et aux autres. L'apprentissage automatique produit également un passage à la préemption :interdire les futurs sur la base de la corrélation plutôt que de la causalité. Cela construit le risque de la même manière que Twitter détermine les sujets tendances, allouer et retenir des ressources d'une manière qui délimite algorithmiquement les méritants et les non méritants.

    Nous devrions peut-être être particulièrement inquiets de ces tendances car malgré ses meilleures intentions, la pratique de l'humanitarisme montre souvent des tendances néocoloniales. En revendiquant la neutralité et l'universalité, les algorithmes affirment la supériorité des connaissances abstraites générées ailleurs. En intégrant la logique des puissants pour déterminer ce qui arrive aux gens à la périphérie, L'IA humanitaire devient un mécanisme néocolonial qui agit au lieu d'un contrôle direct.

    En l'état, l'apprentissage automatique et la soi-disant IA ne seront en aucun cas un salut pour l'humanitarisme. Au lieu, il approfondira la dynamique néocoloniale et néolibérale déjà profonde des institutions humanitaires à travers une distorsion algorithmique.

    Mais aucun appareil n'est un système clos; l'impact de l'apprentissage automatique est contingent et peut être modifié. Ceci est aussi important pour l'IA humanitaire que pour l'IA en général - car, si une technique alternative n'est pas mobilisée par des approches comme les conseils populaires, la prochaine génération de scandales humanitaires sera menée par l'IA.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com