• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'IA peut maintenant créer du faux porno, rendre le revenge porn encore plus compliqué

    La pornographie générée par l'IA - connue sous le nom de "deepfakes" - devient de plus en plus convaincante, sans couture et réel. Crédit :Shutterstock

    En janvier de cette année, une nouvelle application a été lancée qui donne aux utilisateurs la possibilité d'échanger des visages dans une vidéo avec un visage différent obtenu à partir d'une autre photo ou vidéo - similaire à la fonction "échange de visage" de Snapchat. C'est une version quotidienne du genre d'imagerie de haute technologie générée par ordinateur (CGI) que nous voyons dans les films.

    Vous le reconnaîtrez peut-être grâce au camée d'une jeune princesse Leia dans le film Star Wars de 2016 Voleur un , qui utilisait le corps d'un autre acteur et des images du premier film Star Wars créé 39 ans plus tôt.

    Maintenant, toute personne possédant un ordinateur puissant, une unité de traitement graphique (GPU) et du temps libre peuvent créer de fausses vidéos réalistes – connues sous le nom de « deepfakes » – en utilisant l'intelligence artificielle (IA).

    Ça a l'air amusant, droit?

    Le problème est que ces mêmes outils sont accessibles à ceux qui cherchent à créer de la pornographie non consensuelle d'amis, collègues de travail, camarades de classe, ex-partenaires et parfaits inconnus – et publiez-le en ligne.

    L'évolution des deepfakes

    En décembre 2017, Motherboard a révélé l'histoire d'un utilisateur de Reddit connu sous le nom de "deep fakes", qui a utilisé l'IA pour échanger les visages d'acteurs dans des vidéos pornographiques avec les visages de célébrités bien connues. Un autre utilisateur de Reddit a ensuite créé l'application de bureau appelée FakeApp.

    Il permet à quiconque, même sans compétences techniques, de créer ses propres fausses vidéos à l'aide du framework d'apprentissage automatique open source TensorFlow de Google.

    La technologie utilise une méthode d'IA connue sous le nom de « deep learning », qui consiste à alimenter un ordinateur en données que l'ordinateur utilise ensuite pour prendre des décisions. Dans le cas du faux porno, l'ordinateur évaluera quelles images faciales d'une personne seront les plus convaincantes en tant qu'échange de visage dans une vidéo pornographique.

    Connu sous le nom de porno "morph", ou "porno parasite", Les fausses vidéos ou photographies de sexe ne sont pas un phénomène nouveau. Mais ce qui fait des deepfakes un problème nouveau et préoccupant, c'est que la pornographie générée par l'IA semble nettement plus convaincante et réelle.

    Une autre forme d'abus sexuel basé sur l'image

    Création, distribuer ou menacer de distribuer de la fausse pornographie sans le consentement de la personne dont le visage apparaît dans la vidéo est une forme d'"abus sexuel basé sur l'image" (IBSA). Également connu sous le nom de « pornographie non consensuelle » ou « porno de vengeance », c'est une atteinte à la vie privée et une violation du droit à la dignité, autonomie sexuelle et liberté d'expression.

    Dans un cas de morph porn, les photos d'une Australienne ont été volées sur ses comptes de réseaux sociaux, superposées à des images pornographiques puis publiées sur plusieurs sites Web. Elle a décrit l'expérience comme la faisant se sentir « physiquement malade, dégoûté, en colère, dégradé, déshumanisé."

    Pourtant, les réponses à ce type d'abus sexuel restent incohérentes. La réglementation fait défaut en Australie, et ailleurs.

    Le visage de Donald Trump est troqué sur le corps d'Alec Baldwin pendant qu'il fait son impression de Donald Trump.

    Recours en vertu du droit pénal australien

    Australie du Sud, NSW, Victoria et l'ACT ont des infractions pénales spécifiques pour les abus sexuels basés sur l'image avec des peines allant jusqu'à quatre ans d'emprisonnement. Australie du Sud, NSW et l'ACT définissent explicitement une image « intime » ou « invasive » comme incluant des images qui ont été modifiées ou manipulées.

    Les juridictions sans infractions pénales spécifiques pourraient s'appuyer sur des lois pénales plus générales. Par exemple, l'infraction fédérale en matière de télécommunications consistant à « utiliser un service de transport pour menacer, harceler ou offenser », ou des infractions d'État et de territoire telles que le tournage illégal, indécence, traque, voyeurisme ou chantage.

    Mais il n'est pas clair si de telles lois s'appliqueraient aux cas de "fake porn", ce qui signifie qu'actuellement, le droit pénal offre une protection incohérente aux victimes d'abus sexuels fondés sur l'image à travers l'Australie.

    Recours en droit civil australien

    Les victimes ont peu de recours en vertu de la loi sur le droit d'auteur à moins qu'elles ne puissent prouver qu'elles sont le propriétaire de l'image. On ne sait pas si cela signifie le propriétaire de l'image du visage ou le propriétaire de la vidéo originale. Ils peuvent avoir plus de chance en vertu de la loi sur la diffamation. Ici, le demandeur doit prouver que le défendeur a publié des documents faux et désobligeants qui les identifient.

    Poursuite des litiges civils, cependant, est chronophage et coûteux. It will do little to stop the spread of non-consensual nude or sexual images on the internet. Aussi, Australian civil and criminal laws will be ineffective if the perpetrator is located overseas, or if the perpetrator is an anonymous content publisher.

    Addressing the gap in legislation

    The Australian Parliament is currently debating the Enhancing Online Safety (Non-Consensual Sharing of Intimate Images) Bill 2017. This bill, which is yet to become law, seeks to give the Office of the eSafety Commissioner the power to administer a complaints system and impose formal warnings, removal notices or civil penalties on those posting or hosting non-consensual intimate images.

    Civil penalties are up to A$105, 000 for "end-users" (the individuals posting the images) or A$525, 000 for a social media, internet service or hosting service provider.

    Surtout, the proposed legislation covers images which have been altered, and so could apply to instances of deepfakes or other kinds of fake porn.

    Prevention and response beyond the law

    While clear and consistent laws are crucial, online platforms also play an important role in preventing and responding to fake porn. Platforms such as Reddit, Twitter and PornHub have already banned deepfakes. Cependant, at the time of writing, the clips continue to be available on some of these sites, as well as being posted and hosted on other websites.

    Read more:Facebook wants your nude photos to prevent 'revenge porn' – here's why you should be sceptical

    A key challenge is that it is difficult for online platforms to distinguish between what is fake and what is real, unless victims themselves discover their images are online and contact the site to request those images be removed.

    Yet victims may only become aware of the fake porn when they start receiving harassing communications, sexual requests, or are otherwise alerted to the images. D'ici là, the harm is often already done. Technical solutions, such as better automated detection of altered imagery, may offer a way forward.

    To adequately address the issue of fake porn, it is going to take a combination of better laws, cooperation from online platforms, as well as technical solutions. Like other forms of image-based sexual abuse, support services as well as prevention education are also important.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com