• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Utiliser des outils d'intelligence artificielle pour identifier les niveaux de violence dans les films

    Crédit :CC0 Domaine public

    Pour beaucoup dans l'industrie cinématographique, voir votre film atterrir avec une cote NC-17 de la Motion Picture Association of America (MPAA) est le baiser de la mort. Votre film n'étant plus accessible aux moins de 17 ans, vous avez le choix entre des recettes limitées au box-office ou une réédition coûteuse, ou même reshoot, pour répondre aux exigences d'une cote R plus acceptable.

    Mais que se passerait-il s'il existait un moyen plus précis de déterminer la classification probable d'un film au stade du scénario, avant de passer par le processus coûteux de production et de post-production ? Une équipe de recherche du Signal Analysis and Interpretation Lab (SAIL) de la Viterbi School of Engineering de l'USC utilise l'apprentissage automatique pour analyser la représentation de la violence dans le langage des scripts. Le résultat est un nouvel outil pour aider les producteurs, scénaristes et studios pour déterminer le classement potentiel de leurs projets.

    Présenté à la conférence 2019 de l'Association for the Advancement of Artificial Intelligence (AAAI), le nouvel outil d'IA a été développé par Ph.D. étudiants Victor Martinez, Krishna Somandepalli, Karan Singla, Anil Ramakrishna, et leur conseiller Shrikanth Narayanan, la chaire Niki et Max Nikias en ingénierie. Cela a été fait en collaboration avec Yalda Uhls de Common Sense Media. L'étude est la première fois que le traitement du langage naturel est utilisé pour identifier le langage et le contenu violents dans les scripts de films.

    L'outil d'IA a été développé à l'aide d'un ensemble de données de 732 scripts de films populaires qui avaient été annotés pour un contenu violent par Common Sense Media. A partir de ces informations, l'équipe a construit un modèle d'apprentissage automatique de réseau neuronal où les algorithmes se croisent, travailler ensemble et apprendre des données d'entrée (c'est-à-dire, le texte des scripts), afin de créer une sortie (c'est-à-dire, notes de violence pour le film). L'outil d'IA a analysé le langage dans le dialogue des scénarios et a constaté que la sémantique et le sentiment du langage utilisé étaient un indicateur fort du contenu violent évalué dans les films terminés.

    Narayanan et son équipe utilisent l'IA pour analyser des données centrées sur l'humain depuis plus de 15 ans dans le cadre de leurs recherches sur l'intelligence des médias informatiques, qui se concentre sur l'analyse des données liées au cinéma et aux médias de masse. Ils travaillent régulièrement avec des partenaires tels que le Geena Davis Institute for Gender in Media pour analyser les données des films et des médias afin de déterminer ce qu'elles peuvent révéler sur la représentation.

    Narayanan a déclaré que l'analyse de texte a une longue histoire dans les domaines créatifs de l'évaluation du contenu pour le discours de haine, langage sexiste et abusif, mais analyser la violence au cinéma à travers le langage du scénario est une tâche plus complexe.

    « Généralement, lorsque les gens étudiaient des scènes de violence dans les médias, ils recherchent des coups de feu, des voitures qui hurlent ou qui s'écrasent, quelqu'un qui se bat et ainsi de suite. Mais le langage est plus subtil. Ces types d'algorithmes peuvent examiner et suivre le contexte, pas seulement ce que signifient des mots spécifiques et des choix de mots. Nous l'examinons d'un point de vue global, " dit Narayanan.

    Martinez a déclaré qu'un exemple de la capacité de l'outil d'IA à détecter la violence implicite que la technologie actuelle ne peut pas détecter était une partie du dialogue de The Bourne Ultimatum (2007) :« Je savais que ça allait se terminer de cette façon. manière…"

    Martinez a déclaré que cette ligne avait été signalée par l'outil d'IA comme violente, même s'il n'a pas de marques linguistiques explicites pour la violence.

    "Contrairement à la façon dont les taux de la MPAA, nos modèles regardent le contenu réel du film, et le contexte dans lequel le dialogue est dit, faire une prédiction sur la violence de ce film, ", a déclaré Martinez.

    Somandepalli a déclaré que l'équipe de recherche utilise maintenant l'outil pour analyser comment les scénarios utilisent la violence dans les représentations des victimes et des auteurs, et la démographie de ces personnages.

    De telles découvertes pourraient jouer un rôle important dans un post #MeToo Hollywood, préoccupés par la représentation des femmes et la perpétuation de stéréotypes négatifs, et un accent renouvelé sur les personnages féminins forts avec l'agence.

    L'équipe prévoit qu'à terme, ce serait un outil qui pourrait être intégré dans un logiciel de scénarisation. La plupart des programmes de scénarisation tels que Final Draft ou WriterDuet sont déjà capables de créer des rapports montrant la proportion de dialogues de personnages par sexe. Cet outil permettrait d'analyser le contenu en fonction de la nature du langage violent utilisé par un personnage, affichant quels personnages sont les auteurs et quels sont les victimes.

    "Souvent, il peut y avoir des modèles et des préjugés inconscients présents dans le script que l'écrivain peut ne pas avoir l'intention, et un outil comme celui-ci contribuera à faire prendre conscience de cela », a déclaré Narayanan.

    L'étude "Violence Rating Prediction from Movie Scripts" est publiée dans les Actes de la trente-troisième conférence de l'AAAI sur l'intelligence artificielle.


    © Science https://fr.scienceaq.com