Crédit :CC0 Domaine public
Les ingénieurs en intelligence artificielle devraient mobiliser des idées et une expertise d'un large éventail de disciplines des sciences sociales, y compris ceux qui adoptent des méthodes qualitatives, afin de réduire les dommages potentiels de leurs créations et de mieux servir la société dans son ensemble, une paire de chercheurs a conclu dans une analyse qui apparaît dans le journal Nature Machine Intelligence .
"Il y a de plus en plus de preuves que l'IA peut exacerber les inégalités, perpétuer la discrimination, et faire du mal, " écrit Mona Sloane, chercheur à l'Institute for Public Knowledge de l'Université de New York, et Emmanuel Moss, doctorant à la City University de New York. "Pour parvenir à une technologie socialement juste, nous devons inclure la notion la plus large possible de sciences sociales, un qui inclut des disciplines qui ont développé des méthodes pour lutter contre l'immensité du monde social et qui nous aide à comprendre comment et pourquoi les dommages causés par l'IA émergent dans le cadre d'un vaste, complexe, et système techno-social émergent.
Les auteurs exposent les raisons pour lesquelles les sciences sociales s'approchent, et ses nombreuses méthodes qualitatives, peut largement améliorer la valeur de l'IA tout en évitant les pièges documentés. Des études ont montré que les moteurs de recherche peuvent discriminer les femmes de couleur tandis que de nombreux analystes ont soulevé des questions sur la façon dont les voitures autonomes prendront des décisions socialement acceptables dans les situations d'accident (par exemple, éviter les humains plutôt que les bouches d'incendie).
Sloane, également membre adjoint du corps professoral à la Tandon School of Engineering de NYU, et Moss reconnaissent que les ingénieurs en IA cherchent actuellement à inculquer « l'alignement des valeurs » - l'idée que les machines doivent agir conformément aux valeurs humaines - dans leurs créations, mais ajoutent qu'"il est exceptionnellement difficile de définir et d'encoder quelque chose d'aussi fluide et contextuel que les 'valeurs humaines' dans une machine".
Pour pallier cette lacune, les auteurs proposent un modèle pour l'inclusion des sciences sociales dans l'IA à travers une série de recommandations :
"Au fur et à mesure que nous avançons dans le tissage social, culturel, et les éléments technologiques de nos vies, nous devons intégrer différents types de connaissances dans le développement technologique, » Sloane et Moss concluent. « Un avenir plus socialement juste et démocratique pour l'IA dans la société ne peut pas simplement être calculé ou conçu; il doit être habité, raconté, et tirés d'une compréhension profonde de la société."