Crédit :iStock/Velvetfish
Des musiciens de jazz s'amusent les uns avec les autres, les humains qui se parlent et les groupes d'épaulards ont tous des conversations interactives qui se ressemblent remarquablement, une nouvelle recherche révèle.
Des chercheurs en sciences cognitives de l'UC Merced ont développé une nouvelle méthode d'analyse et de comparaison des sons de la parole, de la musique et des vocalisations animales complexes comme le chant des baleines et le chant des oiseaux. Le document détaillant leurs conclusions est publié aujourd'hui dans le Journal de la Royal Society Interface .
Leur méthode est basée sur l'idée que ces sons sont complexes car ils ont plusieurs couches de structure. Chaque langue, par exemple, a des sons individuels, correspondant à peu près à des lettres, qui se combinent pour former des syllabes, mots, phrases, phrases et ainsi de suite. C'est une hiérarchie que tout le monde comprend intuitivement. Les compositions musicales ont leurs propres hiérarchies temporelles, mais jusqu'à présent, il n'y avait pas de moyen de comparer directement les hiérarchies de la parole et de la musique, ou tester si des hiérarchies similaires peuvent exister dans le chant des oiseaux et le chant des baleines.
"Jouer de la musique jazz a été comparé à une conversation entre musiciens, et les épaulards sont des créatures très sociales qui vocalisent comme s'ils se parlaient. Mais la musique de jazz sonne-t-elle vraiment comme une conversation, et est-ce que les épaulards ont vraiment l'air de parler ?", a demandé Chris Kello, chercheur principal et professeur à l'UC Merced. "Nous savons que les épaulards sont très sociaux et intelligents, mais il est difficile de dire qu'ils interagissent lorsque vous écoutez leurs enregistrements. Notre méthode montre à quel point leurs modèles sonores ressemblent à des personnes qui parlent, mais pas comme les autres, des baleines ou des oiseaux moins sociaux."
Les chercheurs ont trouvé un moyen de mesurer et de comparer les enregistrements sonores en les convertissant en "codes-barres" qui capturent des grappes d'énergie sonore, et des grappes de grappes, à travers les niveaux d'une hiérarchie. Ces codes-barres ont permis aux chercheurs de comparer directement les hiérarchies temporelles dans plus de 200 enregistrements de différents types de discours dans six langues différentes, différents genres de musique populaire et classique, quatre espèces différentes d'oiseaux et de baleines chantant leurs chansons, et même des orages.
Kello et ses collègues utilisent la méthode du code-barres depuis plusieurs années. Ils l'ont d'abord développé dans des études de conversations. L'étude publiée aujourd'hui est la première fois qu'ils appliquent la méthode à la musique et aux vocalisations animales.
"La méthode nous permet de poser des questions sur le langage, la musique et les chants d'animaux que nous ne pourrions pas poser sans un moyen de voir et de comparer les modèles dans tous ces enregistrements, " dit Kello.
Une chanson commune
Bonjour, Ramesh Balasubramaniam, professeur de sciences cognitives à l'UC Merced, L'étudiant diplômé Butovens Me´de´ et le professeur collaborateur Simone Dalla Bella ont également découvert que les chants obsédants des énormes baleines à bosse sont remarquablement similaires aux magnifiques chants des petits rossignols et des grives ermites en termes de hiérarchies temporelles.
"Les baleines à bosse, les rossignols et les grives ermites sont des chanteurs solitaires, " a déclaré Kello. "Les codes-barres montrent que leurs chansons ont des couches de structure similaires, mais nous ne savons pas encore ce que cela signifie."
L'idée de ce projet est venue du congé sabbatique de Kello à l'Université de Montpellier en France, où il travaillait et discutait d'idées avec Dalla Bella. Balasubramaniam, qui étudie comment la musique est perçue, est à la Faculté des sciences sociales, Humanités et Arts avec Kello, qui étudie le traitement de la parole et du langage. Le projet était une collaboration naturelle et fait partie d'un axe de recherche croissant à l'UC Merced qui a été rendu possible par l'école d'été CHASE financée par la National Science Foundation sur la musique et la langue en 2014, et un Google Faculty Award à Kello.
Balasubramaniam souhaite poursuivre le travail pour mieux comprendre comment les cerveaux font la distinction entre la musique et la parole, tandis que Kello a déclaré qu'il existe de nombreuses voies à suivre.
Par exemple, les chercheurs ont trouvé des hiérarchies temporelles presque identiques pour six langues différentes, ce qui peut suggérer quelque chose d'universel à propos de la parole humaine. Cependant, parce que ce résultat était basé sur des enregistrements de TED Talks - qui ont un style et une progression communs - Kello a déclaré qu'il serait important de continuer à regarder d'autres formes de parole et de langage.
Un de ses étudiants diplômés, Sara Schneider, utilise la méthode pour étudier la convergence des codes-barres espagnols et anglais dans des conversations bilingues. Un autre étudiant diplômé, Adolfo Ramirez-Aristizabal, travaille avec Kello et Balasubramaniam pour étudier si la méthode du code-barres peut faire la lumière sur la façon dont le cerveau traite la parole et d'autres sons complexes.
« Écouter de la musique et de la parole, nous pouvons entendre une partie de ce que nous voyons dans les codes-barres, et les informations peuvent être utiles pour la classification automatique des enregistrements audio. Mais cela ne signifie pas que notre cerveau traite la musique et la parole à l'aide de ces codes-barres, " dit Kello. " C'est intriguant, mais nous devons continuer à poser des questions et aller là où les données nous mènent."