• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Améliorer la qualité de l'IA nécessite d'aller au-delà du quantitatif

    Crédit :CC0 Domaine public

    Les ingénieurs en intelligence artificielle devraient mobiliser des idées et une expertise d'un large éventail de disciplines des sciences sociales, y compris ceux qui adoptent des méthodes qualitatives, afin de réduire les dommages potentiels de leurs créations et de mieux servir la société dans son ensemble, une paire de chercheurs a conclu dans une analyse qui apparaît dans le journal Nature Machine Intelligence .

    "Il y a de plus en plus de preuves que l'IA peut exacerber les inégalités, perpétuer la discrimination, et faire du mal, " écrit Mona Sloane, chercheur à l'Institute for Public Knowledge de l'Université de New York, et Emmanuel Moss, doctorant à la City University de New York. "Pour parvenir à une technologie socialement juste, nous devons inclure la notion la plus large possible de sciences sociales, un qui inclut des disciplines qui ont développé des méthodes pour lutter contre l'immensité du monde social et qui nous aide à comprendre comment et pourquoi les dommages causés par l'IA émergent dans le cadre d'un vaste, complexe, et système techno-social émergent.

    Les auteurs exposent les raisons pour lesquelles les sciences sociales s'approchent, et ses nombreuses méthodes qualitatives, peut largement améliorer la valeur de l'IA tout en évitant les pièges documentés. Des études ont montré que les moteurs de recherche peuvent discriminer les femmes de couleur tandis que de nombreux analystes ont soulevé des questions sur la façon dont les voitures autonomes prendront des décisions socialement acceptables dans les situations d'accident (par exemple, éviter les humains plutôt que les bouches d'incendie).

    Sloane, également membre adjoint du corps professoral à la Tandon School of Engineering de NYU, et Moss reconnaissent que les ingénieurs en IA cherchent actuellement à inculquer « l'alignement des valeurs » - l'idée que les machines doivent agir conformément aux valeurs humaines - dans leurs créations, mais ajoutent qu'"il est exceptionnellement difficile de définir et d'encoder quelque chose d'aussi fluide et contextuel que les 'valeurs humaines' dans une machine".

    Pour pallier cette lacune, les auteurs proposent un modèle pour l'inclusion des sciences sociales dans l'IA à travers une série de recommandations :

    • La recherche sociale qualitative peut aider à comprendre les catégories à travers lesquelles nous donnons un sens à la vie sociale et qui sont utilisées dans l'IA. "Par exemple, les technologues ne sont pas formés pour comprendre comment les catégories raciales dans l'apprentissage automatique sont reproduites en tant que construction sociale qui a des effets réels sur l'organisation et la stratification de la société, » observent Sloane et Moss. « Mais ces questions sont discutées en profondeur dans les sciences sociales, ce qui peut aider à créer la toile de fond socio-historique sur laquelle l'histoire de l'attribution de catégories comme la « race » peut être rendue explicite. »
    • Une approche qualitative de collecte de données peut établir des protocoles pour aider à réduire les biais. « Les données reflètent toujours les préjugés et les intérêts de ceux qui collectent, " notent les auteurs. " La recherche qualitative est explicite sur la collecte de données, alors que les pratiques de recherche quantitative en IA ne le sont pas."
    • La recherche qualitative exige généralement des chercheurs qu'ils réfléchissent à la façon dont leurs interventions affectent le monde dans lequel ils font leurs observations. "Une approche quantitative n'oblige pas le chercheur ou le concepteur d'IA à se situer dans le monde social, " écrivent-ils. " Par conséquent, ne nécessite pas d'évaluation de qui est inclus dans la décision vitale de conception de l'IA, et qui ne l'est pas."

    "Au fur et à mesure que nous avançons dans le tissage social, culturel, et les éléments technologiques de nos vies, nous devons intégrer différents types de connaissances dans le développement technologique, » Sloane et Moss concluent. « Un avenir plus socialement juste et démocratique pour l'IA dans la société ne peut pas simplement être calculé ou conçu; il doit être habité, raconté, et tirés d'une compréhension profonde de la société."


    © Science https://fr.scienceaq.com