Il y a quelques semaines, L'association française Solidarité Sida a fait sensation en publiant une vidéo fausse mais très réaliste de Donald Trump proclamant "Le sida est fini" dans le cadre d'une campagne de sensibilisation. La vidéo en question est ce qu'on appelle un deepfake, une technique qui consiste à utiliser l'apprentissage automatique pour fabriquer des images et des vidéos de plus en plus réalistes ainsi que des fichiers audio et texte.
Cette utilisation d'une vidéo deepfake par un organisme de bienfaisance met en évidence la prévalence croissante de ce phénomène. Alors que la pornographie représente actuellement la grande majorité des vidéos deepfake, la technique peut également être utilisée pour frauder, diffamer, pour diffuser de fausses nouvelles ou pour voler l'identité de quelqu'un.
Des menaces en évolution
En septembre, L'International Risk Governance Center (IRGC) de l'EPFL a réuni une trentaine d'experts pour un séminaire interdisciplinaire afin de discuter de ce phénomène en évolution rapide et de sa prévalence croissante. L'IRGC a publié aujourd'hui un rapport contenant des informations précieuses sur les risques associés aux deepfakes.
L'observation principale est que ces risques pourraient potentiellement causer des dommages étendus dans de nombreux domaines de la vie. « Toute organisation ou activité commerciale qui s'appuie sur des preuves documentaires est potentiellement vulnérable, " dit Aengus Collins, l'auteur du rapport et le directeur adjoint de l'IRGC. Les deepfakes peuvent causer beaucoup d'incertitude et de confusion. Dans une affaire récente, des voleurs ont utilisé l'audio falsifié de la voix d'un directeur général pour voler de l'argent à une entreprise. A l'échelle de la société, une prolifération de contenus fabriqués pourrait saper la vérité et éroder la confiance du public, les pierres angulaires du débat démocratique.
Le rapport fournit un cadre pour catégoriser les risques de deepfake. Il met en évidence trois impacts clés :atteinte à la réputation, fraude et extorsion, et la manipulation des processus de prise de décision - et note que ces impacts peuvent être ressentis individuellement, institutionnellement ou à travers la société.
Avec un si large éventail de dommages potentiels causés par les deepfakes, où les réponses de gouvernance des risques sont-elles les plus nécessaires ? Les experts recommandent de se concentrer sur l'ampleur et la gravité du préjudice potentiel, ainsi que la capacité de la « cible » à faire face aux retombées. Par exemple, une entreprise bien dotée en ressources et dotée de processus établis sera mieux à même d'absorber l'impact d'une attaque deepfake qu'une victime privée de harcèlement.
Solutions interdépendantes
Dans le rapport, l'IRGC énonce 15 recommandations couvrant une variété de réponses potentielles aux deepfakes qui pourraient atténuer les risques qu'ils présentent. Cela appelle également à une recherche plus approfondie à tous les niveaux.
L'une des principales catégories de recommandation est la technologie, y compris des outils qui peuvent vérifier la provenance du contenu numérique ou détecter les deepfakes. A l'EPFL, le Multimedia Signal Processing Group (MMSPG) et la startup Quantum Integrity développent actuellement une solution de détection de deepfake qui pourrait être déployée en 2020. "Pour tout ensemble de défenses donné, il y aura des vulnérabilités qui peuvent être exploitées, ", dit Collins. "Mais maintenir et développer des réponses technologiques aux deepfakes est crucial pour dissuader la plupart des abus."
Le rapport souligne également la nécessité de se concentrer davantage sur le statut juridique des deepfakes, afin de clarifier comment les lois dans des domaines tels que la diffamation, le harcèlement et le droit d'auteur s'appliquent au contenu synthétique.
Plus généralement, la littératie numérique a un rôle important à jouer. Mais Collins prévient qu'il y a un paradoxe ici :« L'un des objectifs de l'alphabétisation numérique dans ce domaine est d'encourager les gens à ne pas prendre le contenu numérique pour argent comptant. des sources. Sinon, encourager les gens à se méfier de tout ce qu'ils voient risque d'exacerber les problèmes liés à l'érosion de la vérité et de la confiance."
Des horizons plus larges
Alors que le rapport de l'IRGC se concentre sur la gouvernance des risques deepfake, cette recherche s'inscrit dans un chantier plus large sur les risques liés aux technologies émergentes et convergentes, qui se poursuivra en 2020. « Nous décidons actuellement de notre prochain objectif, " dit Collins. " Et les candidats ne manquent pas. Nous vivons à une époque où la relation entre la technologie, les risques et les politiques publiques sont plus importants que jamais. »