La semaine dernière, le chef du régulateur électoral australien a averti que l'organisation "ne possède pas les outils législatifs ni les capacités techniques internes pour dissuader, détecter ou traiter de manière adéquate les faux contenus générés par l'IA concernant le processus électoral".
Cette remarque, faite devant une commission sénatoriale sur l’adoption de l’intelligence artificielle (IA), n’est pas un commentaire isolé. La relation entre l'IA et la démocratie est le sujet de nombreuses conversations de plus en plus urgentes qui ont lieu partout dans le monde.
Plus de 60 pays se rendront aux urnes en 2024, dans ce qui a été qualifié de « la plus grande année électorale de l’histoire ». L'Australie prévoit d'organiser des élections dans le Territoire du Nord et dans le Queensland cette année, avec des élections fédérales prévues d'ici mai 2025.
Dans le même temps, l’explosion des outils d’IA générative pour le texte, les images, l’audio et la vidéo modifie radicalement la façon dont les Australiens créent et utilisent l’information. Comment pouvons-nous maintenir l'intégrité et la confiance des élections à l'ère de l'IA générative ?
Le risque le plus évident que l’IA fait peser sur la démocratie réside dans les contenus synthétiques (ou « deepfakes »), qui pourraient être utilisés pour désinformer les électeurs. Une enquête du Forum économique mondial menée l'année dernière a révélé que les experts ont classé la « désinformation et la désinformation » et la « polarisation sociétale » comme les premier et troisième risques mondiaux les plus graves au cours des deux prochaines années.
Ces risques se manifestent déjà. Aux États-Unis, un consultant politique qui a utilisé la voix synthétique du président américain Joe Biden lors d’appels automatisés risque des amendes de plusieurs millions de dollars. En Inde, les vidéos générées par l'IA sont devenues de plus en plus courantes lors de la campagne électorale de cette année.
Mais les deepfakes et la désinformation sont loin d’être les seuls risques. L’IA présente également de nouvelles opportunités. Dans le témoignage que j'ai présenté au comité sénatorial et dans un mémoire de moi et de mes collègues du Tech Policy Design Center, nous affirmons qu'une conversation nationale plus approfondie sur ce sujet est essentielle.
Une politique globale ne se concentrera pas uniquement sur les deepfakes qui influencent les votes, mais sur la santé de la démocratie de manière plus générale. Des élections libres et équitables sont une caractéristique de la démocratie (bien qu'incroyablement importante), mais il en existe bien d'autres.
L’engagement civique éclairé, la tolérance et le pluralisme politique sont d’autres ingrédients importants d’un système démocratique prospère. Le système doit également identifier et répondre aux besoins de l'électorat, et le gouvernement doit être transparent et responsable.
Ainsi, lorsque nous réfléchissons à la relation entre l'IA et la démocratie, nous devons penser à des préoccupations récurrentes telles que la représentation politique, le journalisme d'intérêt public, l'éducation aux médias et la cohésion sociale.
Une politique équilibrée doit reconnaître que les technologies d'IA présentent des opportunités pour la démocratie, ainsi que des risques.
Par exemple, il est tout à fait raisonnable de craindre que l'engagement civique éclairé puisse souffrir de la tendance des modèles d'IA générative à « halluciner » et à produire de la désinformation.
Cependant, la même technologie peut également impliquer davantage d'électeurs dans le discours civique :elle peut convertir des concepts politiques complexes en contenu pertinent, ou créer des traductions automatiques dans de nombreuses langues.
Certains éléments des défis auxquels nous sommes confrontés ne sont pas aussi nouveaux ou certains qu'il y paraît.
L’IA, et le boom de l’IA générative en particulier, injecte certainement des éléments sans précédent dans l’écosystème démocratique. Mais il y a encore des leçons que nous pouvons tirer du passé.
Les inquiétudes suscitées par les technologies qui rendent les nouvelles formes de communication largement accessibles ne sont pas nouvelles. Les efforts visant à réglementer et à contrôler qui peut influencer les flux publics d'informations ne le sont pas non plus.
Au XVe siècle, l’invention de l’imprimerie de Gutenberg a attisé les craintes concernant ce que l’on pourrait aujourd’hui appeler les « fausses nouvelles ». Il existe de nombreux exemples plus récents, notamment ce que nous avons appris de l'essor des médias sociaux (qui façonnent à leur tour l'histoire de l'IA et de la démocratie).
Nous devons faire preuve de discernement quant aux éléments de l’IA générative qui sont fondamentalement nouveaux. Dans le même temps, nous pouvons rechercher des outils politiques applicables et des leçons tirées des révolutions précédentes des technologies de l'information.
L’Australie se trouve à un carrefour intéressant. À moins d'un an de nos prochaines élections fédérales, plusieurs volets politiques interdépendants sont en cours d'élaboration.
Le ministère de l’Industrie travaille sur une réponse à la consultation de l’année dernière sur une IA sûre et responsable. Cela inclura la prise en compte des règles relatives aux filigranes obligatoires dans le contenu généré par l'IA.
Le département des communications retravaille également les propositions visant à attribuer de nouveaux pouvoirs à l'Australian Communications and Media Authority. Celles-ci contribueront à lutter contre la désinformation et la désinformation, et pourront inclure des mesures spécifiques à l'IA.
Parallèlement, la loi sur la sécurité en ligne 2021 est en cours de révision. Cela pourrait donner lieu à des pouvoirs permettant de lutter contre les abus en ligne contre des personnalités publiques, ce qui pourrait encore une fois impliquer l'IA.
Je propose quatre actions clés que le gouvernement australien devrait prendre.
Premièrement, il devrait développer une approche nationale coordonnée de la relation entre l’IA et la démocratie. Mes collègues du Tech Policy Design Center ont proposé des recommandations plus détaillées sur la manière de coordonner le développement de politiques technologiques nationales.
Deuxièmement, le gouvernement devrait prêter une attention particulière aux dizaines d’élections nationales organisées cette année dans le monde. Nous pouvons suivre le succès ou l'échec de différentes politiques dans différents contextes pour apprendre des expériences des autres.
Troisièmement, nous pouvons apprendre de la Corée du Sud en exigeant des hommes politiques qu’ils divulguent et filigranent tout deepfake ou tout autre contenu produit par l’IA utilisé dans le matériel électoral. La Corée du Sud a complètement interdit aux politiciens d’utiliser du matériel généré par l’IA dans leurs campagnes. Cependant, la barre inférieure exigeant que les politiciens australiens soient transparents pourrait être moins controversée et plus facile à mettre en œuvre.
Et quatrièmement, le gouvernement doit s’assurer que la Commission électorale australienne et l’Australian Communication and Media Authority disposent du personnel et des ressources dont elles ont besoin. Leur tâche consistant à relever les défis émergents, y compris ceux posés par l'IA, et à donner aux Australiens les moyens de s'engager dans un paysage informationnel complexe au cours de l'année à venir ne sera pas une tâche facile.
Ces mesures ne devraient être que le début d'un débat national global, équilibré et éclairé sur la manière dont nous pouvons aider la démocratie australienne à s'épanouir à l'ère de l'IA.
Fourni par The Conversation
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.