• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Parler de la façon dont nous parlons de l'éthique de l'intelligence artificielle

    Crédit :CC0 Domaine public

    Si vous voulez comprendre comment les gens pensent (et ressentent) les nouvelles technologies, il est important de comprendre comment les médias pensent (et écrivent) sur les nouvelles technologies.

    Une analyse récente de la façon dont les journalistes ont traité l'éthique de l'intelligence artificielle (IA) suggère que les journalistes font du bon travail pour s'attaquer à un ensemble complexe de questions, mais il y a place à l'amélioration.

    Pour en savoir plus sur le travail, pourquoi ils l'ont fait, et pourquoi c'est important, nous avons parlé aux chercheurs qui ont fait le travail :Veljko Dubljević, auteur correspondant de l'article et professeur adjoint de philosophie à NC State; Leïla Ouchchy, premier auteur de l'article et ancien premier cycle de l'État de Caroline du Nord ; et Allen Coin, co-auteur de l'article et étudiant diplômé à NC State.

    Le papier, "L'IA à la une :la mise en scène des enjeux éthiques de l'intelligence artificielle dans les médias, " a été publié dans la revue IA et société le 29 mars.

    Le résumé :Cet article se concentre, en partie, sur les questions éthiques liées aux technologies d'IA que les gens utiliseraient dans leur vie quotidienne. Pouvez-vous me donner un ou deux exemples ?

    Allen Coin :L'application la plus connue de l'IA avec des implications éthiques très réelles serait probablement les voitures autonomes. Si une voiture autonome se trouve dans une situation où elle a, par exemple, a perdu le contrôle de ses freins et doit percuter un enfant ou un adulte, que doit-il faire ? Si vous « conduisez » une voiture autonome et que vous perdez connaissance, et la voiture devient incontrôlable et a le choix entre percuter un piéton, vous sauvant ainsi la vie, ou en descendant d'une falaise, sacrifiant ainsi ta vie, que doit-il faire ? Que voudriez-vous que votre voiture fasse dans cette situation?

    Ce sont des "problèmes de chariot" du monde réel sur lesquels même les êtres humains auraient du mal à prendre des décisions morales et éthiques dans le feu de l'action.

    Un autre exemple un peu plus insidieux serait la façon dont les préjugés et les préjugés humains ont apparemment tendance à apparaître dans les applications d'IA que les humains développent. Algorithmes d'apprentissage automatique, par exemple, touchent de plus en plus de domaines de la vie humaine. Mais ces algorithmes doivent être « entraînés » sur des ensembles de données du monde réel. Si les ensembles de données représentent un comportement humain préjudiciable, même si ce n'est pas immédiatement apparent ou si vous essayez de l'éliminer, cela peut signifier que le logiciel résultant n'est pas capable d'agir objectivement.

    Un exemple serait un logiciel de RH pour les grandes entreprises qui sélectionne les candidats à un poste en fonction de caractéristiques similaires à celles des candidats précédemment retenus, ce qui signifie que s'il y avait un préjugé de genre ou de race lorsque les humains prenaient les décisions d'embauche, le «robot» peut continuer à se comporter avec ces préjugés lors de la sélection des candidats.

    TA :Pour cette recherche, vous avez examiné spécifiquement la façon dont les médias d'information ont couvert ces considérations éthiques. Pourquoi?

    Leila Ouchchy :Nous nous sommes spécifiquement penchés sur les médias d'information en raison de l'effet que les nouvelles peuvent avoir sur l'opinion publique concernant les nouvelles technologies. La couverture médiatique de l'éthique de l'IA a le potentiel d'avoir un impact sur la façon dont l'IA est mise en œuvre dans notre société, des types d'IA qui sont produits par les entreprises à la façon dont l'IA est réglementée par le gouvernement.

    TA :Pourquoi ne pas regarder aussi les manières dont l'éthique de l'IA est traitée dans la culture populaire, comme la télévision ou le cinéma ? Ceux-ci n'informent-ils pas et ne reflètent-ils pas également les préoccupations du public ?

    Veljko Dubljević :La représentation publique des questions éthiques dans l'IA dans la fiction a déjà reçu plus d'attention dans la communauté universitaire, et c'est à la fois bon et mauvais.

    L'avantage, c'est que nous avons des analyses là-bas, qui peut être utile.

    Le mauvais côté, cependant, est que cela n'est pas fermement ancré dans des faits scientifiques et des technologies déjà disponibles, ce qui rend cela plus sujet aux exagérations utopiques et dystopiques.

    TA :Qu'est-ce que votre analyse des médias a trouvé ? Et qu'est ce que ca veut dire?

    Ouchchy :Il y a eu une forte augmentation du nombre d'articles publiés ces dernières années, ce qui montre que la quantité de contenu médiatique publié sur l'éthique de l'IA n'a cessé d'augmenter, et continuera probablement d'augmenter à mesure que ce problème deviendra plus répandu. En outre, il y a eu peu de discussions sur les cadres éthiques et les principes basés sur eux, ce qui suggère un manque de participation ou d'influence des éthiciens dans le débat médiatique. Finalement, nous avons constaté que les articles avaient pour la plupart des tons neutres, et axé sur des questions pratiques et pertinentes, même si leurs recommandations n'étaient pas très précises. Cela montre que le débat médiatique sur l'éthique de l'IA est relativement sophistiqué, mais encore à ses débuts.

    TA :Qu'est-ce que les journalistes pourraient ou devraient faire différemment dans leur couverture de l'éthique et des technologies d'IA ?

    Dubljević :Les journalistes peuvent tirer profit de la possibilité de contacter des experts en technologie de l'IA et des éthiciens pour clarifier les faits et les valeurs pertinents. La discussion peut être relativement sophistiquée, mais il y a certainement place à amélioration.

    Coin :Pour ajouter à ce point, Une chose qui m'a frappé dans les résultats de cette recherche est que l'un des « cadres éthiques » les plus fréquemment cités dans les articles sur l'éthique de l'IA est « Trois lois de la robotique » d'Isaac Asimov. Maintenant, Je suis certainement un fan de la science-fiction d'Asimov, mais ses « Trois lois » ne constituent pas un cadre éthique formel. Ce n'est pas non plus très utile dans le contexte de discussions réelles sur la façon dont l'IA peut et devrait se comporter de manière éthique.

    L'utilitarisme a également été couramment discuté dans les articles de presse sur l'éthique de l'IA, donc je pense qu'il y a une opportunité de moderniser la façon dont nous parlons de l'éthique de l'IA. Spécifiquement, nous pourrions – ou devrions – utiliser des cadres éthiques plus modernes capables de s'attaquer aux subtilités et à la complexité des applications réelles des agents moraux artificiels. Je suis également d'accord avec Veljko pour dire que les journalistes devraient s'adresser plus souvent aux chercheurs et aux éthiciens de l'IA. Je pense qu'il y a beaucoup d'experts qui seraient ravis de détourner l'oreille de tout journaliste souhaitant obtenir une perspective éthique détaillée sur tout élément d'actualité lié à l'IA. .


    © Science https://fr.scienceaq.com