Une nouvelle étude sur les images génératives d'IA montre que seulement plus d'un tiers des organisations médiatiques interrogées au moment de l'étude disposaient d'une politique d'IA spécifique aux images.
L'étude, dirigée par l'Université RMIT en collaboration avec l'Université de l'État de Washington et le QUT Digital Media Research Center, a interrogé 20 éditeurs de photos ou rôles connexes de 16 grandes organisations médiatiques publiques et commerciales en Europe, en Australie et aux États-Unis sur leurs perceptions des technologies d'IA générative. en journalisme visuel.
"L'IA visuelle générative dans les organismes de presse :défis, opportunités, perceptions et politiques" a été publié dans Journalisme numérique .
Le chercheur principal et maître de conférences au RMIT, le Dr TJ Thomson, a déclaré que même si la plupart des membres du personnel interrogés étaient préoccupés par l'impact de l'IA générative sur la désinformation et la désinformation, les facteurs qui aggravent le problème, tels que l'échelle et la vitesse à laquelle le contenu est partagé sur les réseaux sociaux. et les biais algorithmiques, étaient hors de leur contrôle.
"Les éditeurs de photos veulent être transparents avec leur public lorsque des technologies d'IA générative sont utilisées, mais les organisations médiatiques ne peuvent pas contrôler le comportement humain ni la manière dont les autres plateformes affichent les informations", a déclaré Thomson, de l'École des médias et de la communication du RMIT.
"Le public ne clique pas toujours pour en savoir plus sur le contexte et l'attribution d'une image. Nous avons vu cela se produire lorsque les images d'IA du pape portant Balenciaga sont devenues virales, beaucoup pensant qu'elles étaient réelles parce qu'il s'agissait d'une image presque photoréaliste partagée. sans contexte.
"Les éditeurs de photos que nous avons interviewés ont également déclaré que les images qu'ils reçoivent ne précisent pas toujours le type de retouche d'image effectué, ce qui peut conduire les sites d'information à partager des images IA sans le savoir, ce qui a un impact sur leur crédibilité."
Thomson a déclaré que la mise en place de politiques et de processus détaillant la manière dont l'IA générative peut être utilisée dans différentes formes de communication pourrait empêcher les incidents de désinformation, tels que les images altérées de la députée victorienne Georgie Purcell, de se produire.
"Davantage d'organisations médiatiques doivent être transparentes dans leurs politiques afin que leurs publics puissent également avoir confiance que le contenu a été créé ou édité de la manière dont l'organisation le prétend", a-t-il déclaré.
L’étude a révélé que cinq des médias interrogés interdisaient au personnel d’utiliser l’IA pour générer des images, et trois de ces médias interdisaient uniquement les images photoréalistes. D'autres autorisaient les images générées par l'IA si l'histoire concernait l'IA.
« La plupart des politiques que j'ai vues de la part des médias concernant l'IA générative sont générales et abstraites. Si un média crée une politique en matière d'IA, il doit prendre en compte toutes les formes de communication, y compris les images et les vidéos, et fournir des conseils plus concrets. » Thomson a dit.
"Interdire purement et simplement l'IA générative constituerait probablement un désavantage concurrentiel et presque impossible à appliquer.
"Cela priverait également les professionnels des médias des avantages de la technologie, comme l'utilisation de l'IA pour reconnaître des visages ou des objets dans des visuels afin d'enrichir les métadonnées et de faciliter le sous-titrage."
Thomson a déclaré que l'Australie était toujours « en queue de peloton » en ce qui concerne la réglementation de l'IA, avec les États-Unis et l'UE en tête.
"La population de l'Australie est beaucoup plus petite, donc nos ressources limitent notre capacité à être flexible et adaptable", a-t-il déclaré.
"Cependant, il existe également une attitude attentiste dans laquelle nous observons ce que font les autres pays afin de pouvoir améliorer ou imiter leurs approches.
"Je pense qu'il est bon d'être proactif, que ce soit de la part du gouvernement ou d'une organisation médiatique. Si nous pouvons montrer que nous sommes proactifs pour faire d'Internet un endroit plus sûr, cela fait preuve de leadership et peut façonner les conversations autour de l'IA."
L'étude a révélé que les journalistes s'inquiétaient de la façon dont les biais algorithmiques pourraient perpétuer les stéréotypes autour du genre, de la race, de la sexualité et des capacités, conduisant à un risque de réputation et à une méfiance à l'égard des médias.
"Nous avons demandé à un éditeur de photos dans notre étude de saisir une invite détaillée dans un générateur de texte en image pour montrer une femme sud-asiatique portant un haut et un pantalon", a déclaré Thomson.
"Malgré les détails des vêtements de la femme, le générateur a persisté à créer l'image d'une femme sud-asiatique portant un sari."
"Des problèmes comme celui-ci proviennent d'un manque de diversité dans les données de formation, et cela nous amène à nous demander dans quelle mesure nos données de formation sont représentatives, et que pouvons-nous faire pour réfléchir à qui est représenté dans nos actualités, nos photos d'archives mais aussi dans le cinéma et des jeux vidéo, qui peuvent tous être utilisés pour entraîner ces algorithmes."
Les droits d'auteur étaient également une préoccupation pour les éditeurs de photos, car de nombreux générateurs de texte en image n'étaient pas transparents quant à la provenance de leurs documents sources.
Bien que des affaires de droits d'auteur sur l'IA générative aient été portées devant les tribunaux, comme le procès du New York Times contre OpenAI, Thomson a déclaré qu'il s'agissait encore d'un domaine en évolution.
"Être plus conservateur et utiliser uniquement des générateurs d'IA tiers formés sur des données exclusives ou les utiliser uniquement à des fins de brainstorming ou de recherche plutôt que de publication peut réduire le risque juridique pendant que les tribunaux règlent la question du droit d'auteur", a-t-il déclaré.
"Une autre option consiste à former des modèles avec le propre contenu d'une organisation et de cette façon, ils auront l'assurance qu'ils détiennent les droits d'auteur sur les générations résultantes."
Malgré les inquiétudes concernant la désinformation, l'étude révèle que la plupart des éditeurs de photos voient de nombreuses opportunités d'utiliser l'IA générative, comme le brainstorming et la génération d'idées.
Beaucoup étaient heureux d'utiliser l'IA pour générer des illustrations qui n'étaient pas photoréalistes, tandis que d'autres étaient heureux d'utiliser l'IA pour générer des images lorsqu'ils ne disposaient pas de bonnes images de stock existantes.
"Par exemple, les images de stock existantes de Bitcoin se ressemblent toutes, donc l'IA générative peut aider à combler une lacune dans ce qui manque dans un catalogue d'images de stock", a déclaré Thomson.
Même s'il y avait des inquiétudes quant à la perte d'emplois dans le photojournalisme au profit de l'IA générative, un éditeur interrogé a déclaré qu'il pouvait imaginer utiliser l'IA pour des tâches photographiques simples.
"Les photographes employés pourront réaliser plus de projets créatifs et moins de tâches comme photographier quelque chose sur fond blanc", a déclaré l'éditeur interviewé.
"On pourrait dire que ces choses sont également très faciles et simples et prennent moins de temps pour un photographe, mais parfois elles sont aussi un casse-tête."
Plus d'informations : T. J. Thomson et al, L'IA visuelle générative dans les agences de presse :défis, opportunités, perceptions et politiques, Journalisme numérique (2024). DOI :10.1080/21670811.2024.2331769
Fourni par l'Université RMIT