Crédit :Shutterstock
Dans l'émission humoristique de la BBC, je suis désolé, je n'ai pas d'indice, les panélistes sont parfois invités à chanter « une chanson sur l'air d'une autre ». Des résultats hilarants s'ensuivent lorsque les paroles d'une chanson correspondent au rythme et à la mesure de l'autre mais qu'elles ont des sentiments complètement différents :Jabberwocky et Jerusalem, par exemple. Le jeu fonctionne parce que le public reconnaît le décalage entre le sentiment des paroles et la musique. Tout le monde sait qu'un bon air doit non seulement s'adapter au rythme des mots, mais aussi transmettre quelque chose d'approprié à leur sens.
Nous pouvons expliquer le sens des paroles en examinant leurs mots composants et leur structure grammaticale. Mais comment expliquer le sens de la musique ? Qu'est-ce que la musique de, dire, Alléluia de Leonard Cohen transmettre? Certaines personnes pensent que si nous rassemblons suffisamment de données pour répondre à ces questions, nous pourrons peut-être programmer une machine pour comprendre ce que nos oreilles nous disent facilement :que Jérusalem s'anime et Singin' in the Rain est joyeux.
Nouvelle recherche publiée dans la revue Science ouverte de la Royal Society tente d'aborder ce problème en étudiant les liens entre les émotions des paroles et les éléments musicaux sur lesquels elles sont fixées. Bien que les méthodes utilisées soient sophistiquées et statistiques, les conclusions sont extrêmement sèches. La découverte qu'un seul type d'accord est le plus associé à des paroles positives est une énorme simplification du fonctionnement de la musique, mettant en évidence l'ampleur du défi de créer une machine capable de comprendre et de composer de la musique comme un humain peut le faire.
Les données proviennent de la combinaison d'informations provenant de trois sources publiques à grande échelle, deux d'entre eux initialement destinés à des fins entièrement différentes. Les auteurs ont téléchargé les paroles et les séquences d'accords de près de 90, 000 chansons populaires d'Ultimate Guitar, un site Web communautaire de longue date où les utilisateurs téléchargent leurs propres transcriptions de musique.
Pour faire correspondre les paroles des chansons aux émotions, les chercheurs ont pris les données du labMT, un site Web participatif qui évalue la valence émotionnelle des mots (le degré auquel ils représentent de bons ou de mauvais sentiments). Les détails de quand et d'où proviennent les chansons ont été tirés de Gracenote, la même base de données que votre lecteur de musique utilise probablement pour afficher les informations sur les artistes.
En corrélant la valence des mots avec le type d'accord qui les accompagne, les auteurs ont confirmé que les accords majeurs étaient davantage associés aux mots positifs qu'aux accords mineurs. De façon inattendue, ils ont constaté que les accords de septième - des accords avec quatre notes différentes plutôt que les trois habituelles - avaient une association encore plus élevée avec des mots positifs, même dans le cas d'accords de septième mineure. Ceci est en contraste avec d'autres études qui ont placé la valence des accords de septième entre mineur et majeur.
Les études quantitatives comme celle-ci sur la musique et les émotions deviennent de plus en plus courantes et populaires, utilisant des quantités de données toujours plus importantes. Les articles les plus cités dans le Journal of New Music Research (que j'édite) sont de ce type. Ils provoquent parfois l'étonnement que l'art, souvent opposé à la science, peut s'expliquer par les chiffres. Et parfois, ils provoquent la peur que des machines sans âme envahissent le territoire de la créativité humaine.
Compter est un moyen éprouvé de faire des découvertes dans d'autres domaines, il ne faut donc pas s'étonner qu'il en soit de même en musique. Et ceux qui ont peur des machines musicales doivent savoir qu'il est trop tard :ils sont déjà parmi nous. Voir, par exemple, chez Songsmith de Microsoft. Ma peur, au lieu, est que les humains se débrouilleront avec des machines musicales mal faites. Nous ne devrions pas ignorer la connaissance de siècles de théorie musicale simplement parce que nous avons de nouveaux outils de science des données brillants.
Les auteurs de ce nouvel article viennent d'une université (Indiana) avec l'une des plus grandes écoles de musique des États-Unis, mais ils travaillaient tous au Département d'informatique. Tout en remerciant certains membres de l'école de musique pour les discussions, l'analyse statistique sophistiquée de cet article ne correspond pas à une profondeur de la théorie musicale.
Plus que de la décoration
Les accords de septième ne sont pas interchangeables avec les accords majeurs et mineurs. Ils ont une fonction musicale particulière et apparaissent à différents endroits dans une phrase, tout comme les adjectifs ont une fonction différente des noms. Les auteurs affirment que leur approche consistant à utiliser les mots de la musique vocale comme clé de son contenu émotionnel est nouvelle, Mais ce n'est pas le cas. L'un des livres les plus influents sur la musique et l'émotion à son époque, Le langage de la musique de Derek Cooke (1959), utilisé exactement cette approche. Hélas pour les universités modernes, où les univers des chercheurs semblent avoir été réduits à leurs propres disciplines particulières.
Nous devrions nous méfier de l'hypothèse paresseuse que les mots portent le vrai sens d'une chanson et d'une musique et que le reste ne sont que des sentiments, à appliquer comme des décorations de gâteaux. La musique a ses propres éléments et structures, et parle de plusieurs manières. L'expérience de la musique est bien plus que ses sons.
Les études quantitatives ont un énorme potentiel pour aider à comprendre ces processus, mais ils doivent traiter la musique à la lumière de ce que nous en savons comme de la musique. Après tout, le sens de la musique de Hallelujah de Leonard Cohen semble clair. Si seulement on pouvait en dire autant des mots.
Cet article a été initialement publié sur The Conversation. Lire l'article original.