Une nouvelle étude de l’Université de Californie à Berkeley a révélé que les deepfakes peuvent souvent tromper les gens, même après avoir été formés à leur détection.
L'étude, publiée dans la revue _PLoS One_, a demandé à 33 personnes d'écouter une série de deepfakes de discours et d'enregistrements réels. Il a ensuite été demandé aux participants d'évaluer dans quelle mesure ils étaient convaincus que chaque enregistrement était réel ou faux.
Les résultats ont montré que les participants ont été trompés par les deepfakes environ 50 % du temps, même après avoir été formés à la façon de les détecter. Cela suggère que les deepfakes vocaux deviennent de plus en plus sophistiqués et difficiles à détecter.
Les auteurs de l’étude affirment que leurs résultats ont des implications sur l’utilisation des deepfakes vocaux dans le monde réel. Ils préviennent que les deepfakes de discours pourraient être utilisés pour diffuser des informations erronées, usurper l’identité d’autrui ou commettre une fraude.
"Nos résultats suggèrent que nous devons être plus prudents quant à croire ce que nous entendons", a déclaré Dan Goldstein, co-auteur de l'étude. "Les deepfakes vocaux deviennent de plus en plus réalistes et de plus en plus difficiles à détecter."
Les auteurs de l’étude recommandent aux gens de prendre les mesures suivantes pour se protéger contre les deepfakes :
* Soyez conscient que des deepfakes vocaux existent et soyez sceptique quant aux enregistrements audio que vous rencontrez.
* Faites attention aux repères visuels dans un enregistrement. Si la bouche de la personne ne bouge pas en synchronisation avec les mots qu’elle prononce, il peut s’agir d’un deepfake.
* Écoutez tout son étrange ou artificiel dans un enregistrement. Les deepfakes ont souvent un son électronique ou robotique.
* Si vous n'êtes pas sûr qu'un enregistrement soit réel ou faux, essayez de trouver d'autres sources d'informations pour le vérifier.
Les auteurs de l'étude affirment que ces mesures peuvent aider les gens à se protéger contre les deepfakes de discours, mais ils reconnaissent également que les deepfakes de discours constituent un problème grave qui nécessitera un effort concerté pour le résoudre.
"Nous devons continuer à rechercher les deepfakes et développer de nouveaux moyens de les détecter", a déclaré Goldstein. "Nous devons également sensibiliser aux dangers des falsifications de discours et éduquer les gens sur la manière de se protéger."