• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Comment l'intelligence artificielle axée sur les valeurs peut remodeler notre façon de communiquer

    Crédit :Yale University Press

    Mike Ananny a promené son chien ce matin. Il l'a fait sans aucune attente de confidentialité.

    "Je sais que j'ai été soumis à une grande variété de caméras, qu'il s'agisse de sonnettes Ring, de voitures qui roulent ou même de caméras de circulation urbaine", a-t-il déclaré. "Je n'ai pas choisi de participer à toute cette variété de systèmes de vidéosurveillance. J'ai juste emmené mon chien faire une promenade."

    Ananny comprend que, où qu'il aille, des données le concernant sont collectées, analysées et monétisées par l'intelligence artificielle (IA).

    Kate Crawford a conduit une camionnette profondément dans le paysage aride du Nevada pour bien voir les bassins de saumure en évaporation de la mine de lithium de Silver Peak.

    Ces étendues de liquide désolées ne sont pas seulement la plus grande source de lithium aux États-Unis - le métal essentiel aux batteries qui alimentent tout, des ordinateurs portables aux appareils mobiles en passant par les voitures électriques - elles sont également un rappel frappant de l'impact de l'IA sur le monde matériel. .

    "Les métaphores que les gens utilisent pour parler de l'IA comme" le cloud "impliquent quelque chose de flottant et d'abstrait", a déclaré Crawford. "Mais le calcul à grande échelle a une empreinte carbone et un impact environnemental énormes."

    Crawford sait que les systèmes mondiaux d'énergie, d'exploitation minière, de main-d'œuvre et de pouvoir politique sont réécrits par les besoins de l'IA.

    Lorsque la pandémie de COVID-19 a commencé, Ashley Alvarado savait que les auditeurs de sa station étaient effrayés et confus.

    Chez KPCC-FM et LAist, Alvarado a utilisé une variété d'outils de communication pour se connecter avec le public, mais l'ampleur des commentaires, des questions et des conseils que la station recevait nécessitait une solution capable de traiter rapidement de grandes quantités de données.

    "Avec COVID, il y avait tellement besoin d'informations au début de la pandémie que la façon dont nous pouvions être les plus humains pour Angelenos était de tirer parti de l'IA", a déclaré Alvarado.

    Connues sous de nombreux noms - algorithmes, robots, mégadonnées, traitement du langage naturel, apprentissage automatique, agents intelligents - les technologies qui relèvent de la définition large de l'IA remodèlent non seulement le monde de la communication, mais le monde dans son ensemble. À l'échelle de l'USC Annenberg, les professeurs, les étudiants et les anciens élèves explorent à la fois l'immense potentiel et les pièges souvent moins évidents présentés par ces technologies.

    "Annenberg est particulièrement bien placée pour mener cette conversation, car ce sont des problèmes socio-techniques et de communication", a déclaré Ananny. "Je ne veux pas que nos réponses à ces questions soient simplement techniques. Je veux une réponse profondément historique et ancrée dans la compréhension culturelle."

    Termes de recherche

    Dans l'imaginaire populaire, l'IA peut signifier n'importe quoi, de la commodité quotidienne de votre téléphone à choisir des chansons qu'il sait que vous pourriez aimer ou à vous indiquer le meilleur itinéraire vers la maison de votre ami, ou la promesse de panacées de données volumineuses pour des problèmes tels que le changement climatique ou le Pandémie de covid19. Il est également presque impossible de discuter de l'IA sans faire référence à la fréquence à laquelle l'IA est présentée comme le méchant de la science-fiction :l'interdiction des « machines à penser » dans Dune de Frank Herbert, HAL 9000 dans 2001 :l'Odyssée de l'espace d'Arthur C. Clarke, le Borg dans Star Trek, Agent Smith dans Matrix.

    "Je pense que la plupart des gens ont tendance à y voir ce genre de technologie de science-fiction de Terminator ou Ready Player One", a déclaré Fred Cook, directeur du Center for Public Relations. "En réalité, c'est le moteur derrière de nombreuses choses que les gens, en particulier dans l'industrie des relations publiques, utilisent déjà dans leur travail quotidien."

    Pour simplifier à l'extrême, la plupart de ce que l'on appelle communément l'IA se résume à l'interaction d'algorithmes (des fonctions mathématiques) effectuant des calculs basés sur d'énormes quantités de données.

    "Les algorithmes sont les instructions et les règles qui régissent l'informatique", a déclaré Marlon Twyman II, qui étudie comment la technologie façonne les interactions des individus et des équipes sur le lieu de travail. "L'intelligence artificielle doit avoir des algorithmes qui sous-tendent les décisions et les engagements qu'elle prend."

    Twyman cite l'exemple de la reconnaissance d'image :une IA qui tente de détecter si une photo de chat est un chat ou un chien. Plus les algorithmes sont exposés à des exemples, plus il y a de données, mieux ils sont capables de faire ces déterminations.

    "L'intelligence artificielle, c'est quand les ordinateurs commencent à être capables de répondre à des entrées sur lesquelles ils n'ont pas nécessairement été formés - ou auxquels ils n'ont pas été exposés - lorsqu'ils ont été programmés", a déclaré Twyman, professeur adjoint de communication.

    "Ce avec quoi nous interagissons, ce ne sont que des mathématiques", a déclaré Ignacio Cruz, qui a obtenu son doctorat. en communication en 2021 et enseigne maintenant à la Northwestern University. Il souligne que, malgré les capacités de l'IA à reconnaître les tendances et les modèles, ce n'est pas si mystérieux. La technologie qui a, sinon de la sensibilité, du moins une agence indépendante - ou ce que Cruz appelle des "qualités d'agent" - est, pour l'instant, en grande partie du domaine de la science-fiction.

    "Les algorithmes ne fonctionnent pas comme le cerveau humain", a noté Lynn Miller, professeur de communication. "L'IA n'est en fait qu'une machine à prédire."

    De telles machines permettent des réalisations technologiques remarquables dans les domaines de la santé, de la logistique, des jeux, du divertissement, de la justice pénale, de l'embauche et de nombreux autres domaines, y compris le journalisme local, de manière inattendue.

    IA et communauté

    KPCC-FM ne s'attendait pas à utiliser l'IA pour renforcer l'engagement communautaire, mais lorsque la pandémie a frappé en 2020 et qu'ils ont commencé à être inondés de messages paniqués sur le verrouillage, les dirigeants de la station de radio publique basée à Pasadena savaient qu'ils devaient faire quelque chose pour aider leurs auditeurs.

    "Cela a commencé par une simple inquiétude", a déclaré Alvarado. "Et puis c'est parti dans une panique à part entière - des questions sur les pénuries chez Target, s'il fallait annuler un mariage, s'il était illégal de se réunir avec des êtres chers pour pleurer quelqu'un."

    La plupart de ces questions provenaient d'un outil que la station de radio avait intégré sur sa page d'accueil qui utilise Hearken, une plateforme d'engagement et de soutien organisationnel. "Nous recevions parfois 10 messages par minute via cet outil", a déclaré Alvarado, vice-président de l'engagement communautaire et des initiatives stratégiques pour KPCC-FM et LAist. "Nous avons dû réfléchir de manière créative à la manière dont nous pourrions répondre aux besoins d'informations de milliers et de milliers de personnes."

    Elle s'est entretenue avec Paul Cheung, alors directeur du journalisme et de l'innovation technologique à la Fondation John S. et James L. Knight, qui lui a demandé si elle avait pensé à l'apprentissage automatique. "Et je ne l'avais pas fait," dit-elle avec un petit rire. Cheung les a mis en contact avec des journalistes qui travaillaient avec l'IA sur la publication en ligne Quartz, et ils ont aidé Alvarado et son équipe à développer un outil de traitement du langage naturel capable d'analyser les demandes qu'ils recevaient des auditeurs.

    "Avec l'outil, nous avons pu identifier les thèmes sur lesquels nous devions nous concentrer, pas seulement pour répondre aux questions, mais pour quelles histoires nous devrions couvrir et où", a déclaré Alvarado, qui a obtenu son BA en 2005 avec une double spécialisation en journalisme imprimé et en espagnol. .

    Alvarado voit un grand potentiel pour cette technologie pour permettre au public d'entrer dans les modèles de surface d'autres événements d'actualité à évolution rapide, des incendies de forêt aux débats politiques. "Normalement, vous auriez dû lire chaque question au fur et à mesure qu'elle arrivait et espérer que vous avez observé une tendance, au lieu d'avoir l'IA en place pour dire :"Voici quelque chose qui revient encore et encore."

    Certaines publications utilisent déjà directement l'IA pour écrire des articles, généralement des articles basiques et facilement formatés comme des rapports boursiers, des bulletins météorologiques et des articles sportifs. Bien que ces pièces finissent par sauver certains journalistes débutants de la corvée par cœur, Twyman y voit un inconvénient potentiel.

    "Le problème est que cela supprime la possibilité d'innover, même dans ces tâches simples", a-t-il déclaré. "Si nous continuons à retirer les humains de tâches d'écriture de plus en plus complexes, nous pourrions nous retrouver dans un monde qui semble très différent."

    Agents avec agence

    Parfois, retirer les humains de l'équation est nécessaire pour leur sécurité. Dans ses recherches sur les activités sexuelles à risque il y a plus de 25 ans, Miller se heurtait à un problème très fondamental et très humain. "Je me suis intéressée au comportement sexuel chez les jeunes hommes qui ont des rapports sexuels avec des hommes", a-t-elle déclaré. "J'ai fait beaucoup de travail qualitatif sur ce qui a conduit à ces moments de risque, mais je ne pouvais évidemment pas me cacher sous les lits pour comprendre ce qui se passait. C'est à ce moment-là que j'ai commencé à m'intéresser à la création d'environnements virtuels."

    Miller voulait créer un jeu interactif dans lequel des sujets humains pourraient décider de s'engager ou non dans un comportement sexuel à risque, mais elle était limitée par la technologie dont elle disposait pour créer des situations scénarisées.

    La réponse était un environnement virtuel peuplé d'"agents intelligents", des personnages dont le comportement était régi par des algorithmes qui définissaient leurs préférences et leurs objectifs - en d'autres termes, l'IA - plutôt que par des scripts fixes. Travaillant avec une équipe d'informaticiens et de psychologues de l'USC, Miller a développé des personnages dont le comportement était représentatif de personnes dans la vie réelle. Ces personnages peuplaient un monde virtuel et pouvaient interagir avec des sujets de recherche humains de manière plus naturelle, ce qui produirait en fait des données de recherche exploitables sur les comportements sexuels à risque sans risque.

    "Vous pouvez avoir un humain dans la boucle qui répond à ce que fait l'agent intelligent, qui façonne ensuite son comportement, ou vous pouvez avoir tous les agents qui interagissent et exécutent des simulations", a déclaré Miller. Son travail a permis d'identifier non seulement des schémas de comportement à risque, mais également des moyens d'intervenir efficacement et d'atténuer ce risque.

    Dans sa recherche primée au cours de la dernière décennie et demie qui s'est appuyée sur ces environnements virtuels originaux, Miller et son équipe ont également appris quels types d'interventions fonctionnent le mieux pour limiter les risques dans les situations sexuelles, dont aucune n'aurait été possible sans IA.

    Son travail le plus récent s'est déplacé dans le domaine des neurosciences, utilisant ces agents intelligents pour modéliser des processus humains plus complexes, comme la compétence de communication et la façon dont les humains donnent du sens à travers l'interaction sociale.

    "L'un des problèmes avec l'IA actuelle en général est qu'elle ne peut atteindre qu'un certain point pour pouvoir déduire des émotions", a déclaré Miller. "Cela dit, il existe certaines probabilités et certains paramètres que nous pouvons programmer dans nos agents intelligents en matière d'interaction sociale qui font en fait un assez bon travail de modélisation de la façon dont les humains réels, dans un environnement hautement interactif et flexible, prendront des décisions."

    Alors que l'avenir de l'IA est difficile à prédire, Miller a déclaré que les chercheurs de pointe en IA essayaient déjà de tirer parti de la façon dont les cerveaux humains comprennent le monde. "Comme pour toute innovation, il y a des risques à atténuer", a noté Miller. "Mais il existe également d'énormes opportunités pour améliorer les interventions et les thérapies afin d'améliorer considérablement la communication et le bien-être individuel et sociétal."

    Polarisation de l'analyse

    Comme le souligne Miller, l'une des forces de l'IA est de trouver des modèles parmi d'énormes ensembles de données. Fred Cook voulait prendre un ensemble de données particulièrement litigieux (des publications sur les réseaux sociaux sur des questions politiques controversées) et découvrir si l'IA pouvait aider à mesurer le degré de polarisation dans le débat autour de ces questions.

    Le processus a commencé par une enquête menée par le Center for Public Relations pour son rapport sur la communication mondiale 2021, qui a identifié plusieurs problèmes majeurs que les professionnels des relations publiques pensaient devoir résoudre au cours de l'année à venir. Cook a partagé ces problèmes avec les dirigeants de la société de relations publiques Golin, où il avait été PDG (et a toujours un intérêt financier), puis les a partagés avec la société de logiciels Zignal Labs.

    "Compte tenu de l'énorme problème que le niveau actuel de polarisation pose aux personnes, au gouvernement et aux entreprises, nous avons décidé de développer un nouvel outil qui le mesurerait et, espérons-le, contribuerait à le réduire", a déclaré Cook.

    Leur approche est basée sur le graphique Ad Fontes de la partialité des médias, qui catégorise les médias selon un spectre politique gauche-droite sur un axe et la fiabilité sur l'autre axe. L'outil Zignal AI saisit les 10 principaux problèmes politiques brûlants et les croise avec des publications sociales qui incluent des liens vers des articles de publications figurant sur le graphique Ad Fontes. En fonction de la position de la publication sur le graphique, l'outil attribue un score qui détermine à quel point la plupart des partages sur les réseaux sociaux se situent à gauche ou à droite sur un problème particulier. L'écart entre le nombre d'articles de droite/conservateurs partagés sur un problème et le nombre de publications de gauche/libérales partagées donne un score d'indice de polarisation.

    Le grand nombre de messages impliqués dans la création de ce score - plus de 60 millions - nécessite que l'IA fasse le travail rapidement.

    "L'indice de polarisation fournit une carte thermique des problèmes les plus controversés et des facteurs qui contribuent à leur division", a déclaré Cook. "Nous pouvons en tirer des implications pour les personnes, les entreprises et les communicateurs qui souhaitent s'engager sur ces sujets."

    Cook dit également que les praticiens des relations publiques devront continuer à répondre aux critiques de l'IA fondées sur la confidentialité, le travail, les préjugés et les préoccupations de justice sociale, mais ajoute que sa propre expérience a montré que l'IA peut également avoir des impacts positifs dans ces domaines.

    Cela étant dit, Cook a ajouté :« Chaque nouvelle technologie a des aspects effrayants, et l'IA n'est pas différente de toute autre chose. Bien que nous ayons utilisé l'IA pour effectuer un travail très important sur notre indice de polarisation, l'IA peut et a été utilisée pour se propager. désinformation et influencer les campagnes politiques par le biais de bots. Chaque fois qu'il y a une nouvelle technologie, quelqu'un va l'utiliser de manière préjudiciable."

    Chasse à l'IA avec l'IA

    Lorsqu'il s'agit d'interroger à la fois les aspects positifs et négatifs de l'IA, les doctorants en communication de l'USC Annenberg sont à l'avant-garde de cette recherche, reliant l'informatique et les sciences sociales pour mieux comprendre les implications techniques et culturelles de l'IA.

    L'étudiant au doctorat Ho-Chun Herbert Chang dit que ses années de premier cycle au Dartmouth College ont été formatrices. "Dartmouth est l'endroit où le terme IA a été inventé en 1952", a-t-il noté. "J'ai étudié les mathématiques et les sciences sociales quantitatives, et pour mon programme de bourses supérieures, j'ai réalisé un projet de fiction sur l'intelligence artificielle. C'était le début de ma vision de l'IA d'un point de vue à la fois technique et humaniste."

    Au fur et à mesure que sa carrière universitaire progressait, Chang a constaté un « gouffre » entre la façon dont les praticiens et le public perçoivent l'intelligence artificielle. "Du côté informatique, l'accent est davantage mis sur les aspects techniques de la conception d'algorithmes", a-t-il déclaré. "Du côté humaniste, l'accent est mis sur les valeurs sociétales comme principe premier en termes d'organisation de la recherche."

    L'un des projets sur lesquels Chang a travaillé l'année dernière a montré le potentiel de l'IA pour étudier le comportement humain et le comportement d'autres systèmes d'IA. En collaboration avec Emilio Ferrara, professeur agrégé de communication et d'informatique dont les recherches révolutionnaires ont identifié comment les bots Twitter ont affecté la campagne présidentielle américaine de 2016, Chang a aidé à s'appuyer sur ce travail à l'approche des élections de 2020. À l'aide d'un outil d'intelligence artificielle appelé Botometer, l'équipe a pu quantifier la quantité de trafic Twitter autour des théories du complot générée et amplifiée par les bots. "Le Botomètre examine les données et les métadonnées de la chronologie de chaque compte Twitter, en utilisant l'apprentissage automatique pour déterminer si un compte est un humain ou un bot", a déclaré Chang.

    Chang a également travaillé avec Allissa Richardson, professeure adjointe de journalisme, pour analyser le mouvement pour la justice raciale qui a suivi le meurtre de George Floyd par la police de Minneapolis. "A big part of communication research is about how users participate on social platforms—mediated by algorithms—and how they use these platforms to self-organize for democratic movements," he said. "That's the kind of work I want to do. I'm engaging holistically with AI, and Annenberg is the perfect place for that research."

    Ignacio Cruz focused his dissertation on the use of AI tools in workplace recruitment. Perhaps not surprisingly, he found that the human recruiters who used AI to sort and recommend applicants for positions had very polarized opinions about the effectiveness of the AI. "They often saw AI as either an adversary or an ally," said Cruz, now a postdoctoral fellow at Northwestern University. "Sometimes recruiters see these systems as a time-saver, as an ally. But the job candidates these systems surface often don't jibe with the recruiters' expertise."

    While acknowledging the power of AI to help people make meaning out of huge data sets, Cruz also cautions about many issues that can arise from uncritically accepting the outputs of such systems. Using AI as an intermediary for communication is such a new phenomenon, "We just need a lot more education and critical inquiry about how these technologies are developed before they are deployed to the masses," he said.

    Cruz's own research has shown that AI systems often reflect the biases of those who develop them, as they rely upon human intervention during their creation and implementation. "Artificial intelligence as it's being developed is scattered and largely unregulated," he said. "If these technologies really are going to help us create a better tomorrow, then they need to be designed with purpose, and they need to be continually audited—not only for efficiency, but for sustainability and ethics."

    The desert of AI

    For Kate Crawford, the problem with much of the public conversation around the potential of AI is the lack of any critical lens by which to monitor it in the meaningful ways Cruz suggests.

    "We are subjected to huge amounts of marketing hype, advertising and boosterism around artificial intelligence," said Crawford, research professor of communication. "Part of what I do is look at the way in which artificial intelligence is not just a series of algorithms or code … but to really look at this much bigger set of questions around what happens when we create these planetary-scale computational networks? Who gains, but also, who loses?"

    In the first chapter of her new book "Atlas of AI:Power, Politics and the Planetary Costs of Artificial Intelligence " (Yale University Press, 2021), Crawford begins with her journey to that lithium mine, setting the tone for an exploration of the planetary costs of AI. Her devastating critique frames AI as an extractive industry—both literally, in its reliance on finite resources and labor for its components and its power, and figuratively, in the amount of data it consumes, categorizes and monetizes.

    "Over the course of researching this book, I learned much more about the environmental harms of AI systems," Crawford said. "Servers are hidden in nondescript data centers, and their polluting qualities are far less visible than the billowing smokestacks of coal-fired power stations."

    Describing the amount of energy needed to power something like Amazon Web Services as "gargantuan," Crawford noted that the environmental impact of the AI systems that run on those platforms is continuing to grow. "Certainly, the industry has made significant efforts to make data centers more energy-efficient and to increase their use of renewable energy," Crawford said. "But already, the carbon footprint of AI has matched that of the aviation industry at its height."

    Crawford said that the entire model of AI is extractive and exploitative and would need to be "re-architected" to work differently. "We also need regulatory and democratic oversight," she added. "The proposed European Union AI regulations offer a good starting point, but that's just one effort—and we have yet to see something similar in the United States or China, the two largest producers of AI technologies."

    Working with her USC Annenberg colleagues, Crawford is hoping to contribute to what a reimagined AI would look like.Crawford has teamed up with Mike Ananny and a team of doctoral students and practitioners on a new research project that will analyze issues within the data sets used to train AI systems.

    "AI could help design a shipping system that would minimize the carbon imprint, rather than maximizing profit margin," said Ananny, associate professor of communication. "It's a question of, what do we want to maximize for in our AI systems? It pushes the problem back onto the people with power and it says, it's not a data problem. It's a values problem."

    Crawford said that USC Annenberg's combination of technical expertise with a deep understanding of human communication makes it the ideal place for that kind of reimagining of a less-harmful AI.

    "Our hope is that the research will contribute to how USC and the broader academic community thinks about the future of AI, in terms of how we build it, use it, and regulate it," she said.

    Toward an ethical AI

    As part of his studies of media and technology, Ananny is a scholar of, and a contributor to, the big conversations about how society can reap the benefits of big-data AI systems while still preserving (or better, reestablishing) something that might be recognized as ethics and privacy.

    While many critics and policymakers have proposed stronger tech company regulations that would force them to behave more like public utilities, with greater transparency, Ananny is among those who argue that regulatory reforms don't go far enough.

    "We've allowed capitalist institutions to have massive amounts of power for commodifying people, for allowing wealth inequalities and wealth concentrations—and data is just a part of that, and part of perpetuating that," Ananny said. "Honestly, until you solve this problem of late capitalism where individuals have zero power and companies have all the power, you can kind of nibble around the edges with regulations, but that won't have any real effect on the problem."

    Ananny echoes Crawford's work, asserting that the climate crisis is bringing increasing urgency to the problem of AI as an extractive industry.

    "We cannot allow the planet to burn because of the energy needs of Bitcoin's server farms," he said. "These AI systems are optimizing Amazon's ability to fly products all over the world, with a huge carbon footprint, so people can have a spatula delivered to their Amazon box."

    Ananny does note that some scholars, scientists, activists and politicians are looking for opportunities to leverage the positive impacts of AI's computing power in a way that doesn't exacerbate the climate emergency.

    "This is the language we're using to create a new kind of reality," Ananny said. "Data sets, statistical certainty, optimization, model-making, error detection—all those kinds of seemingly technical terms. But we also need to engage with questions of values. Is it worth it to have all of these things happening at such a huge scale? At what point, in terms of the human and material cost, do you tip too far over? We're going to have to be able to make these kinds of judgments about particular AI tools—including, "Don't build it.'"

    © Science https://fr.scienceaq.com