Crédit :Université technologique du Michigan
Nous le portons, Regarde ça, travailler avec et peut souffrir d'anxiété de séparation lorsqu'il n'est pas disponible. Quelles sont les implications de l'interaction humaine avec la technologie, en particulier lorsqu'il est utilisé pour nous prédire ou nous contrôler ?
Dans le cadre de son premier programme, Culture algorithmique, l'Institut de politique, Éthique, et Culture à la Michigan Technological University ont amené Marika Pfefferkorn, défenseure de la justice sociale et leader d'opinion, sur le campus pour parler de son travail. Dans ce Q&R, Pfefferkorn partage plus sur son activisme populaire, comment il se propage à l'échelle nationale et les actions qu'elle espère que notre communauté entreprendra à la suite de sa visite.
Q :Que faites-vous et comment êtes-vous entré dans ce travail ?
R :Le Minneapolis-St. La Twin Cities Innovation Alliance (TCIA), basée à Paul, est une coalition représentant un organismes privés et communautaires, entreprises et institutions. TCIA a été fondée pour être proactive face à l'émergence des villes intelligentes et pour s'engager dans des solutions entrepreneuriales qui conduisent à des communautés connectées. Nous nous concentrons sur l'importance et le rôle des données dans les domaines des villes intelligentes, y compris l'éducation, gouvernance, infrastructures et transports.
Les données sont comme de l'oxygène pour les Smart Cities, et nous avons réalisé dès le début qu'il était et est impératif de partager avec les membres de la communauté les promesses et les dangers qui existent en raison de l'utilisation de leurs données. Maintenant, notre travail s'étend à l'échelle nationale.
Q :Qu'est-ce qui vous a intéressé par le biais inhérent aux algorithmes prédictifs ?
R :En 2018, 43 districts scolaires du Minnesota ont été identifiés par le Minnesota Department of Human Rights pour discrimination à l'encontre des Noirs, étudiants bruns et autochtones en suspension extrascolaire subjective. Lorsque le comté de Ramsey, la Ville de St. Paul et les écoles publiques de St. Paul ont conclu une entente de pouvoirs conjoints avec partage de données intégré, ils ont proposé d'appliquer des analyses prédictives et d'utiliser une évaluation des risques pour attribuer un score de risque afin de signaler les enfants à risque d'être impliqués dans le système de justice pour mineurs. Quand j'ai appris qu'ils proposaient d'utiliser les suspensions extrascolaires comme indicateur pour leur évaluation des risques, J'étais inquiet parce que les données qu'ils saisiraient étaient erronées et racistes contre les étudiants de couleur et les étudiants recevant des services d'éducation spéciale. J'ai reconnu que les décideurs et les décideurs n'avaient pas fait preuve de diligence raisonnable afin de protéger nos élèves contre le profilage racial ou les étiquettes stigmatisantes qui les suivraient bien au-delà de leur éducation K-12.
Q :Vous avez constaté que les familles susceptibles d'être affectées par un algorithme problématique et les fonctionnaires qui ont soutenu l'accord de partage de données comme moyen plus efficace et efficient d'aider leurs communautés avaient des lacunes dans leurs connaissances et/ou se sentaient intimidés de discuter de la technologie numérique. Comment la coalition que vous avez organisée a-t-elle travaillé pour informer les gens ?
R : Une fois que nous avons reconnu que personne ne comprenait vraiment les implications d'un accord de pouvoirs conjoints aussi étendu, la Coalition to Stop the Cradle to Prison Algorithm a consacré du temps à décomposer le document pièce par pièce :si nous avions des questions à poser, si nous avions des inquiétudes, nous les avons nommés et si nous avions besoin de clarté, nous avons accédé à notre réseau communautaire et contacté des partenaires comme l'ACLU du Minnesota et Data for Black Lives. Comme nous l'avons appris, nous avons créé des outils que tout le monde peut utiliser comme catalyseur pour des conversations plus constructives. Un exemple en est la note d'orientation que nous avons créée et partagée avec nos élus et parties prenantes pour expliquer nos préoccupations et mettre en évidence les aspects problématiques de l'accord. Nous avons engagé les parents en tant qu'ambassadeurs et soutenu leurs efforts pour faire passer le message. Nous avons organisé plusieurs sommets et forums communautaires qui ont positionné d'autres membres de la communauté en tant qu'experts pour parler de ce qui se passait et de leurs préoccupations. Nous avons organisé une clinique Dare to Data et un atelier d'improvisation algorithmique pour aider à interrompre une grande partie de l'intimidation que les membres de notre communauté ressentaient lorsqu'ils naviguaient dans un langage juridique ou technique avec des élus et des décideurs.
Q :Les gens peuvent avoir l'impression que vous êtes anti-données. Est-ce le cas?
R :Je ris quand les gens pensent que je suis contre les données, car une grande partie de mon travail repose sur l'accès à de bonnes données pour raconter toute l'histoire. Pour beaucoup de personnes dans ce travail, il n'y a pas de problème, à moins que vous ne puissiez prouver qu'il y a un problème avec les données. Une grande partie de mon travail sur les disparités disciplinaires exige que je plaide pour une plus grande collecte de données sur les suspensions, renvois et expulsions de bureau; ma préoccupation sera toujours de savoir comment protégeons-nous les données des élèves contre les abus et les abus – le pourquoi est vraiment important.
Q :Parfois, nous avons l'impression que beaucoup d'entre nous passent simplement d'un ordinateur à l'autre, de nos montres et voitures à nos assistants à domicile. À votre avis, à quoi ressemble un bon rapport à la technologie ?
R : Une relation appropriée avec la technologie commence par la compréhension que la technologie est un outil et par le fait de se rappeler que notre humanité passe avant tout. La technologie n'est pas la solution miracle, la technologie n'est pas la réponse à tout, et la technologie doit être maintenue dans une perspective appropriée, pas considéré comme neutre, question ci-dessus. Plus important encore, le rôle de la technologie doit être rendu transparent.
Q :Titres récents, y compris les accusations de préjugés sexistes liés aux cartes de crédit et la collecte de scores financiers « secrets » (pages et pages de données, basé sur tout, des commandes de plats à emporter aux habitudes de regarder la télévision) révèlent à quel point nous avons peu d'intimité. La confidentialité est-elle possible à l'ère algorithmique ?
R :Nous sommes à un tournant de notre démocratie où les gens sont prêts à donner le bébé avec l'eau du bain sans vraiment comprendre l'impact à long terme de la vie privée à l'ère algorithmique. Les entreprises technologiques misent là-dessus. Je crois que c'est le rôle des parents, éducateurs, Les districts scolaires, États et le gouvernement fédéral pour mieux équiper les gens à comprendre et à naviguer dans cette nouvelle ère technologique, en particulier nos natifs numériques qui ne connaissent pas différemment. Une éducation de masse doit être une priorité si nous voulons protéger les protections de la vie privée qui existent. Nous ne pouvons pas tenir notre vie privée pour acquise.
Q :Vous avez rencontré des professeurs, étudiants et membres du personnel plus tôt ce mois-ci. Quelles sont les interactions les plus significatives que vous avez eues sur le campus ?
R :J'ai vraiment apprécié ma visite au Michigan Tech. J'ai tellement appris sur l'Institute for Policy, Éthique, et Culture des membres du comité fondateur que j'ai rencontrés—j'ai entendu leur vision de l'IPEC prendre vie alors qu'ils décrivaient le travail qu'ils espèrent accomplir. J'espère que j'aurai l'occasion de continuer à travailler avec eux pendant qu'ils déploient ce travail.
Ma partie préférée de la visite a été de discuter avec des étudiants d'un cours de droit et société, et rencontre avec des professeurs et des étudiants en informatique. Bien que de nombreux étudiants avec qui j'ai interagi puissent avoir une vision du monde très différente, grâce à notre narration et à nos discussions, j'ai trouvé un terrain d'entente et un véritable intérêt pour les sujets des mégadonnées, analyse prédictive et algorithmes. Je suis également reparti avec une nouvelle liste de lecture. J'ai trouvé que la plupart des étudiants se souciaient vraiment, ont posé d'excellentes questions et ont participé à la conversation parce qu'ils ont établi un lien personnel entre la théorie et l'expérience de la vie réelle.
Q :Quelle est la chose que vous avez apportée à notre communauté et que vous espérez rester avec nous ?
A :Partage de données intégré, l'application de l'analyse prédictive et l'utilisation d'algorithmes ne sont pas une pratique nouvelle, but community members must be aware and prepared to participate in discussions and decision-making processes about their use to ensure that outcomes are not separate from the communities they are intended to serve and to know that certain students are more negatively impacted from others. When we talk about data and systems, we must recognize the harm that communities have experienced in the misuse of data and systems, and the individuals that represent them must do everything in their power to repair that harm and begin to build trust before any next steps are taken.
Q:What's next for your projects?
A:The Twin Cities Innovation Alliance has launched the Data for Public Good Campaign to work side by side with communities to identify emerging technological trends in education across the country for the purpose of creating a heat map to follow the development, resources and policies at play. We will convene these community co-researchers to identify recommendations and guidelines from a community perspective as another tool for communities to use in protecting individual data and ensuring trust between systems and communities.