Les vidéos deepfake peuvent donner l'impression que les gens font ou disent des choses fictives dans le but de diffuser de la désinformation
Des entreprises technologiques et des universitaires se sont associés pour lancer un « deepfake challenge » afin d'améliorer les outils de détection des vidéos et autres médias manipulés par l'intelligence artificielle.
L'initiative annoncée jeudi comprend 10 millions de dollars de Facebook et vise à freiner ce qui est considéré comme une menace majeure pour l'intégrité des informations en ligne.
L'effort est soutenu par Microsoft et le Partenariat sur l'IA soutenu par l'industrie et comprend des universitaires du Massachusetts Institute of Technology, L'Université de Cornell, Université d'Oxford, Université de Californie, Berkeley, Université du Maryland et Université d'Albany.
Il s'agit d'un vaste effort pour lutter contre la diffusion de vidéos ou d'audio manipulés dans le cadre d'une campagne de désinformation.
"Le but du challenge est de produire une technologie que tout le monde peut utiliser pour mieux détecter quand l'IA a été utilisée pour modifier une vidéo afin de tromper le spectateur, ", a déclaré le directeur technique de Facebook, Mike Schroepfer.
Schroepfer a dit des techniques de deepfake, qui présentent des vidéos réalistes générées par l'IA de personnes faisant et disant des choses fictives, « ont des implications importantes pour déterminer la légitimité des informations présentées en ligne. Pourtant, l'industrie ne dispose pas d'un ensemble de données ou d'une référence pour les détecter. »
Le défi est le premier projet d'un comité sur l'IA et l'intégrité des médias créé par le Partenariat sur l'IA, un groupe dont la mission est de promouvoir les usages bénéfiques de l'intelligence artificielle et adossé à Apple, Amazone, IBM et d'autres entreprises technologiques et organisations non gouvernementales.
Térah Lyon, directeur général de la société en commandite, a déclaré que le nouveau projet fait partie d'un effort visant à endiguer les contrefaçons générées par l'IA, qui « ont une importance significative, implications mondiales pour la légitimité de l'information en ligne, la qualité du discours public, la sauvegarde des droits de l'homme et des libertés civiles, et la santé des institutions démocratiques.
Facebook a déclaré qu'il offrait des fonds pour des collaborations de recherche et des prix pour le défi, et participerait également au concours, mais n'accepte aucun des prix en argent.
professeur d'Oxford Philip Torr, l'un des universitaires participants, a déclaré que de nouveaux outils sont « nécessaires de toute urgence pour détecter ces types de médias manipulés.
« Des médias manipulés diffusés sur Internet, créer de fausses théories du complot et manipuler les gens à des fins politiques, devient un enjeu d'importance mondiale, car il s'agit d'une menace fondamentale pour la démocratie, " Torr a déclaré dans un communiqué.
© 2019 AFP