Depuis la mi-février, les membres du Congrès ont reçu plus de 119 000 appels exigeant qu'ils adoptent des lois plus strictes sur le contrôle des armes à feu. Mais ce n'est pas le genre d'appels typiques lancés par des circonscriptions exprimant leurs préoccupations.
Grâce à l'utilisation de l'intelligence artificielle, ces appels semblent être lancés depuis la tombe, par des enfants qui ont été tués directement à cause de la violence armée.
"En 2018, alors que j'avais 15 ans, j'ai été tué par une arme non sécurisée chez mon ami", lit-on dans un message de la voix d'Ethan Song, originaire du Connecticut. "Mes parents ont recréé ma voix grâce à l'IA pour que je puisse enfin vous demander de faire quelque chose pour protéger les enfants."
Ces messages sont envoyés via un nouveau site Web appelé The Shotline. La plateforme est née d'un partenariat entre Change the Ref et March For Our Lives, deux organisations créées en réponse à la fusillade dans l'école secondaire Marjory Stoneman Douglas à Parkland, en Floride, en 2018.
Les groupes se sont associés à ElevenLabs, une société d'IA qui crée des voix synthétiques à l'aide de paroles enregistrées, pour le projet. Leur objectif est d’inonder le Congrès de ces messages afin d’amener les membres à prendre plus au sérieux les questions liées au contrôle des armes à feu. En quelques clics, les utilisateurs du site peuvent envoyer ces messages vocaux à leurs représentants et sénateurs.
Rupal Patel, une professeure du Nord-Est qui a passé sa carrière à rechercher comment la technologie peut être utilisée pour aider à redonner la parole aux gens, estime qu'il s'agit d'une bonne utilisation de la technologie.
"Cela rend les choses réelles", dit Patel. "Il ne s'agit pas nécessairement de la personne. Il s'agit de l'histoire, et en y ajoutant une voix, nous pouvons voir à quoi elle ressemblait, quels étaient ses rêves. Nous associons cela à une voix, à cette proximité."
Mais une autre question se pose :est-il bien de recréer la voix des morts, même si c'est pour une bonne cause ?
Patel dit que puisque les voix des enfants sont créées par leurs parents, il n'y a pas trop de raisons de s'inquiéter.
"Tout est question de consentement", dit-elle. "Ce qui rend cela éthique et admissible, c'est que cela a été consenti par les parents de l'enfant. Ils utilisent une voix artificielle pour transmettre un message. Ils ont le droit de le faire parce que cet enfant n'a pas encore atteint l'âge adulte. . Les parents sont toujours les tuteurs légaux. Toute autre personne qui l'utilise pour un mauvais message n'a pas le consentement de l'individu ou du tuteur."
Cela étant dit, il n'existe actuellement aucune loi protégeant les gens contre la recréation de leur voix à l'aide de l'IA, note-t-elle.
"Je ne pense pas que ce soit une ligne noire et blanche", dit Patel. "Nous devons vraiment réfléchir à ces choses dans un monde beaucoup plus nuancé. S'ils l'utilisaient pour commettre une fraude, c'est une chose. S'ils l'utilisaient de manière créative pour transmettre un message, c'est une autre chose."
Elle a comparé cette technologie à Photoshop, que les gens utilisent tout le temps pour modifier les images.
"Il s'agit d'un continuum technologique et nous devons le traiter comme tel", dit-elle. "Comment pouvons-nous l'utiliser et l'évaluer au cas par cas ? Cela peut ne pas sembler une réponse satisfaisante pour certaines personnes, mais nous ne pouvons pas simplement l'effacer comme étant contraire à l'éthique."
James Alan Fox, professeur de criminologie, de droit et de politique publique dans le Nord-Est, dit comprendre le sentiment derrière le projet et reconnaît la douleur et la colère des parents face à la perte de leur enfant, mais il ne pense pas que le projet sera particulièrement efficace.
"Qu'il s'agisse des parents de Sandy Hook Promise, de Parkland ou d'autres cas, je comprends leurs tentatives pour convaincre le Congrès et les gens de Washington d'adopter des mesures préventives qui empêcheront d'autres parents de marcher à leur place, et les parents devraient parler au nom de leurs fils et de leurs filles. , et ils l'ont fait", dit-il.
"Mais laisser un enfant assassiné parler pour lui-même avec une voix synthétique, je ne pense pas que cela aidera", ajoute-t-il. "En fait, et peut-être que c'est juste moi, mais quand j'écoutais l'audio, cela m'a fait me concentrer davantage sur la qualité de la voix, plus que sur la qualité du message. C'est artificiel et cela nuit au message."
Avec la montée des deep fakes, dit Fox, il est important que nous soyons prudents dans la manière dont nous utilisons cette technologie.
"Je suis d'accord avec l'IA, par exemple, pour créer une nouvelle chanson des Beatles, mais c'est à des fins de divertissement", dit-il. "Je pense que c'est là que je fixe la limite."
Il dit que cela aurait plus d’impact si les parents de ces victimes continuaient à plaider en utilisant leur propre voix. Il souligne certaines avancées réalisées par les parents, notamment en faisant pression pour que le premier projet de loi sur le contrôle des armes à feu soit adopté au Congrès depuis des décennies en 2022.
"Ce que les parents peuvent dire est très puissant et aurait un plus grand impact qu'une voix issue de la tombe, conçue par l'IA", dit-il.
Fourni par l'Université Northeastern
Cette histoire est republiée avec l'aimable autorisation de Northeastern Global News news.northeastern.edu.