• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Problème d'éthique de l'IA :Des abstractions partout mais où sont les règles ?

    Crédit :CC0 Domaine Public

    Des machines qui prennent des décisions à notre sujet :qu'est-ce qui pourrait mal tourner ? Essais, discours, les séminaires posent cette question année après année alors que la recherche sur l'intelligence artificielle fait des progrès étonnants. Les biais intégrés dans les algorithmes ne sont donc que l'un des nombreux problèmes.

    Jonathan Shaw, rédacteur en chef, Revue de Harvard , a écrit plus tôt cette année :« L'intelligence artificielle peut agréger et évaluer de vastes quantités de données qui dépassent parfois la capacité humaine d'analyser sans aide, permettant ainsi à l'IA de faire des recommandations d'embauche, déterminer en quelques secondes la solvabilité des demandeurs de prêt, et prédire les chances que les criminels récidivent."

    De nouveau, Qu'est ce qui pourrait aller mal?

    "Le développement de l'IA a besoin d'une direction morale solide si nous voulons éviter certains des scénarios les plus catastrophiques envisagés par les critiques de l'IA, " a déclaré Stephen Fleischresser, Maître de conférences, Trinity College de l'Université de Melbourne, dans Cosmos .

    Edd Gand dans SingularityHub :"Les préoccupations autour de la vie privée, la transparence et la capacité des algorithmes à déformer le discours social et politique de manière inattendue ont entraîné une vague de déclarations des entreprises, Gouvernements, et même des organisations supranationales sur la manière de mener un développement éthique de l'IA."

    Donc, la question devient, qui s'occupe du magasin d'IA ? Si nous imaginons déjà ce qui pourrait mal se passer avec l'image de l'IA, qui, quel individu, quels groupes, si seulement, essaient de canaliser tout le discours et de prendre le leadership pour un ensemble de règles de travail ?

    Une bonne et opportune lecture à ce sujet a émergé dans Nature Machine Intelligence . Le papier ne vous donne pas la solution unique mais il secoue la conversation. Comme son titre l'indique, « Les principes à eux seuls ne peuvent garantir une IA éthique. »

    L'auteur, Brent Mittelstadt, est de l'Oxford Internet Institute, Université d'Oxford, Oxford, Royaume-Uni et l'Institut Alan Turing, Bibliothèque britannique, Londres, ROYAUME-UNI.

    Fleischresser a décrit Mittelstadt comme « un éthicien dont la recherche concerne principalement l'éthique numérique en relation avec les algorithmes, apprentissage automatique, intelligence artificielle, analyses prédictives, Big Data et systèmes experts médicaux."

    Le problème n'a pas été le manque de parole; « L'éthique de l'intelligence artificielle (IA) est désormais un sujet de discussion mondial dans les cercles universitaires et politiques, " Mittelstadt a déclaré. "Au moins 84 initiatives public-privé ont produit des déclarations décrivant des principes de haut niveau, valeurs et autres principes pour guider le développement éthique, déploiement et gouvernance de l'IA."

    Le problème, c'est qu'avec tous les discours, les parties prenantes bien intentionnées ne sont pas allées bien au-delà de la porte de départ. La couche de soutien des déclarations nobles et des principes en gras peut être en place, mais où est la couche supérieure ? "La partie vraiment difficile de l'éthique - traduire en fait les théories normatives, les concepts et les valeurs en bonnes pratiques que les praticiens de l'IA peuvent adopter - est mis en marche comme le peut le proverbial."

    Bien que les principes élevés soient louables, « Les initiatives d'éthique de l'IA ont jusqu'à présent largement produit de vagues, des principes de haut niveau et des déclarations de valeurs qui promettent de guider l'action, mais dans la pratique, fournissent peu de recommandations spécifiques... Les déclarations des sociétés d'IA et des développeurs s'engageant à respecter des principes éthiques de haut niveau et des codes d'autorégulation fournissent néanmoins aux décideurs politiques une raison de ne pas appliquer de nouvelles réglementations. »

    Mittelstadt a déclaré qu'"une approche fondée sur des principes peut avoir un impact limité sur la gouvernance. Ce qui manque :un cadre réglementaire unifié qui établit "des obligations fiduciaires claires envers les personnes concernées et les utilisateurs". il a dit, signifie que les utilisateurs "ne peuvent pas avoir confiance que les développeurs agiront dans leur meilleur intérêt lors de la mise en œuvre des principes éthiques dans la pratique".

    L'article expliquait ce que l'auteur a identifié comme des sujets de préoccupation pour l'avenir de l'éthique de l'IA.

    La responsabilité juridique et professionnelle était l'un des principaux domaines de discussion, c'est-à-dire « le manque relatif de mécanismes de responsabilité juridique et professionnelle ». Pourquoi c'est un problème :« Sérieux, l'engagement à long terme envers les cadres d'autorégulation ne peut être tenu pour acquis. »

    L'auteur a posé la question fondamentale :étant donné ces faiblesses dans les mécanismes de responsabilité juridique et professionnelle existants pour l'IA, il faut se demander :« est-ce suffisant de définir de bonnes intentions et d'espérer le meilleur ? Sans mécanismes punitifs complémentaires et organes de gouvernance pour intervenir lorsque l'auto-gouvernance échoue, une approche fondée sur des principes court le risque de simplement fournir de fausses assurances d'IA éthique ou digne de confiance."

    Où allons-nous d'ici dans l'éthique de l'IA ?

    L'auteur a déclaré que cette approche « fondée sur des principes » nécessite une surveillance coopérative. Pensez à des « structures de responsabilisation contraignantes et très visibles » ainsi qu'à des « processus de mise en œuvre et d'examen clairs » au niveau sectoriel et organisationnel. « Des normes professionnelles et institutionnelles peuvent être établies en définissant des exigences claires pour une conception inclusive, examen éthique transparent, documentation des modèles et des jeux de données, et un audit éthique indépendant."

    © 2019 Réseau Science X




    © Science https://fr.scienceaq.com