• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Algorithmes éthiques

    Duke Computer Science et professeure à l'ECE Cynthia Rudin. Crédit :Université Duke

    Près de quarante mille personnes ont perdu la vie dans des accidents de voiture l'année dernière aux États-Unis seulement. Nous ne pouvons que présumer que bon nombre de ces décès étaient dus à nos faiblesses humaines uniques :distraction au volant, conduite sous influence, ou une simple inexpérience. Il est logique d'éloigner les conducteurs humains des routes le plus rapidement possible, et laissez les machines conduire.

    C'est un argument, De toute façon. Il existe également un argument convaincant pour s'arrêter et considérer les problèmes éthiques que cette nouvelle technologie fait surface. Qu'il s'agisse de voitures autonomes ou d'une application de partage de selfies avec des protections de confidentialité douteuses, la précipitation à livrer des innovations sur le marché écarte souvent les considérations éthiques, mais plusieurs professeurs de Duke ECE repoussent.

    La professeure Duke ECE Missy Cummings est une ancienne pilote de chasse de la Marine qui dirige maintenant le Humans and Autonomy Lab, ou HAL. Ses recherches portent sur la maximisation de la coopération homme-machine pour des performances et des résultats optimaux, et elle est une « techno-réaliste » au franc-parler lorsqu'il s'agit de l'idée que nous sommes presque prêts pour que des voitures hautement autonomes prennent les routes.

    "Les voitures sans conducteur pourraient réduire considérablement les décès sur les routes, mais actuellement, les systèmes de vision par ordinateur sur ces voitures sont extrêmement fragiles, et pas prêt pour la conduite sans surveillance, " dit Cummings. " Nous savons que les longues ombres, faibles angles de soleil, et même un quart de pouce de neige peut faire échouer ces systèmes, parfois de manière catastrophique, il nous reste donc encore 10 ans ou plus avant d'atteindre toutes les capacités sans conducteur."

    À ce jour, les fabricants ont dépensé environ 80 milliards de dollars en recherche et développement de véhicules autonomes. La taille de cet investissement s'accompagne d'une pression d'égale ampleur; les investissements doivent porter leurs fruits, et il y a un intérêt évident à pousser la technologie vers un marché avide. Encore, les défauts des systèmes AV actuels sont bien documentés. Ils sont vulnérables aux pirates. Ils ne sont pas doués pour les tâches d'inférence, par exemple, sachant qu'une balle qui roule sur la route sera probablement suivie par un enfant qui la poursuit. Ces types d'erreurs de connaissances et de compétences, a noté Cummings, entraînerait l'échec d'un conducteur humain à un test de permis de conduire, mais il n'existe actuellement aucun test équivalent de "vision par ordinateur" qui examine les capacités de raisonnement des voitures sans conducteur.

    Malgré les capacités douteuses des systèmes autonomes et le manque de processus pour tester et certifier les véhicules hautement autonomes, cependant, ils ont déjà emprunté nos routes – dans ce qui sont essentiellement des expériences à grande échelle impliquant le public sans son consentement explicite.

    Cummings a déclaré que vouloir réaliser des véhicules entièrement autonomes est nécessaire pour apporter les améliorations progressives qui nous y mèneront, finalement. Mais pousser la technologie dans le monde avant qu'elle ne puisse être efficacement réglementée, elle a prévenu, est à la fois irresponsable et dangereux.

    C'est un problème qui s'étend bien au-delà du secteur AV.

    Le professeur Cynthia Rudin dirige le laboratoire de prédiction et d'analyse de Duke, et elle est une experte en apprentissage automatique, en particulier, elle est experte dans la création d'algorithmes d'apprentissage automatique interprétables, dans un monde de plus en plus obsédé par les modèles de boîte noire.

    "Un modèle prédictif de boîte noire est un modèle trop compliqué à comprendre pour un humain, ou une formule propriétaire, ce qui signifie qu'il est caché par une entreprise, " a déclaré Rudin. Les algorithmes de la boîte noire sont couramment utilisés dans les applications à faible enjeu comme la vente au détail, où ton âge, le revenu, Occupation, historique d'achat, et une centaine d'autres données informent la décision de vous montrer ou non une publicité pour des billets d'avion ou des vitamines.

    Plus problématiques sont les modèles de boîte noire utilisés dans les décisions à enjeux élevés, comme évaluer le risque de crédit et fixer la libération conditionnelle. Ces décisions peuvent profondément affecter la vie des gens, a souligné Rudin, et il est difficile pour quelqu'un qui s'est vu refuser la libération conditionnelle de contester la décision s'il est impossible de voir comment la décision a été prise.

    Le laboratoire de Rudin est spécialisé dans le développement simple, des modèles interprétables plus précis que les modèles boîte noire actuellement utilisés par le système de justice. Selon Rudin, vous n'avez même pas besoin d'une calculatrice pour les calculer.

    "Il y a une sorte de croyance répandue que parce qu'un modèle est une boîte noire, c'est plus précis, " dit Rudin. " Et cela, pour autant que je sache, est faux. J'ai travaillé sur de nombreuses applications différentes - dans les soins médicaux, en énergie, en risque de crédit, en matière de récidive criminelle—et nous n'avons jamais trouvé d'application où nous avons vraiment besoin d'une boîte noire. Nous pouvons toujours utiliser un modèle interprétable pour un problème de décision à enjeux élevés."

    L'engouement pour les modèles de boîte noire, dit Rudin, devrait être tempérée par un examen attentif des ramifications possibles.

    "Souvent, la communauté universitaire ne forme pas les informaticiens sur les bons sujets, " a déclaré Rudin. " Nous ne les formons pas aux statistiques de base, par exemple. Nous ne les formons pas à l'éthique. Ils développent donc cette technologie sans se soucier de son utilisation. Et c'est un problème."

    Cette année, Duke Engineering a créé le programme Lane Family Ethics in Technology, qui intégrera l'enseignement de l'éthique dans les programmes d'ingénierie et d'informatique. Le programme prend en charge le contenu des cours dirigés par le corps professoral, activités parascolaires et un symposium annuel axé sur l'éthique en technologie.

    Stacy Tantum, le professeur agrégé Bell-Rhodes de la pratique du génie électrique et informatique, dirigera l'un des premiers cours du programme cet automne. Tantum travaillera avec Amber Díaz Pearson, chercheur au Duke's Kenan Institute for Ethics, to integrate ethics-focused modules into ECE 580, Introduction to Machine Learning.

    Three elements of ethical algorithm development will be emphasized in the course, said Tantum. First is transparency, or why others should be able to easily evaluate all aspects of algorithm design, from the input training data and algorithmic assumptions, to the selection of algorithmic parameters, to the process by which predicted performance is evaluated. Second is algorithmic bias—the conditions that are likely to result in bias, but which are often overlooked, or deemed unimportant. And third is unintended use-cases of algorithms—the potential pitfalls of re-purposing algorithms for use-cases other than those for which they were designed.

    "Our goal is to lead students to incorporate ethical considerations as a natural part of algorithm development, not an afterthought to be considered only after an unintended or unanticipated consequence arises, " said Tantum.


    © Science https://fr.scienceaq.com