• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Un ingénieur propose un nouveau modèle pour la façon dont les humains localisent les sons

    Crédit :Institut de technologie du New Jersey

    L'une des énigmes persistantes de la perte auditive est le déclin de la capacité d'une personne à déterminer d'où provient un son, une faculté de survie clé qui permet aux animaux, des lézards aux humains, de localiser le danger, proies et membres du groupe. Dans les temps modernes, retrouver un téléphone portable perdu en utilisant l'application "Trouver mon appareil, " juste pour découvrir qu'il avait glissé sous un oreiller de canapé, repose sur des différences minimes dans le son de sonnerie qui atteint les oreilles.

    Contrairement aux autres perceptions sensorielles, comme sentir où les gouttes de pluie frappent la peau ou être capable de distinguer les notes hautes des notes basses au piano, la direction des sons doit être calculée; le cerveau les estime en traitant la différence de temps d'arrivée entre les deux oreilles, la différence de temps interaurale (ITD). Un consensus de longue date parmi les ingénieurs biomédicaux est que les humains localisent les sons avec un schéma semblable à une carte spatiale ou une boussole, avec des neurones alignés de gauche à droite qui se déclenchent individuellement lorsqu'ils sont activés par un son provenant d'un angle donné, disons, à 30 degrés vers la gauche du centre de la tête.

    Mais dans une recherche publiée ce mois-ci dans la revue eLife , Antje Ihlefeld, directeur du laboratoire d'ingénierie neuronale pour la parole et l'audition du NJIT, propose un modèle différent basé sur un code neuronal plus dynamique. La découverte offre un nouvel espoir, elle dit, que les ingénieurs conçoivent un jour des appareils auditifs, maintenant notoirement médiocre dans la restauration de la direction du son, pour corriger ce déficit.

    "S'il y a une carte statique dans le cerveau qui se dégrade et ne peut pas être corrigée, qui présente un obstacle de taille. Cela signifie que les gens ne peuvent probablement pas « réapprendre » à bien localiser les sons. Mais si cette capacité perceptive est basée sur un code neuronal dynamique, cela nous donne plus d'espoir de recycler les cerveaux des gens, » note Ihlefeld. « Nous programmerions des prothèses auditives et des implants cochléaires non seulement pour compenser la perte auditive d'un individu, mais aussi en fonction de la capacité de cette personne à s'adapter à l'utilisation des signaux de ses appareils. Ceci est particulièrement important pour les situations avec un bruit de fond, où aucun appareil auditif ne peut actuellement restaurer la capacité de distinguer le son cible. Nous savons que fournir des indices pour restaurer la direction du son serait vraiment utile. »

    Ce qui l'a amenée à cette conclusion est un parcours de travail de détective universitaire qui a commencé par une conversation avec Robert Shapley, un éminent neurophysiologiste de l'Université de New York qui a fait remarquer une particularité de la perception binoculaire de la profondeur humaine - la capacité de déterminer à quelle distance se trouve un objet visuel - qui dépend également d'un calcul comparant les entrées reçues par les deux yeux. Shapley a noté que ces estimations de distance sont systématiquement moins précises pour les stimuli à faible contraste (images plus difficiles à distinguer de leur environnement) que pour ceux à fort contraste.

    Ihlefeld et Shapley se sont demandé si le même principe neuronal s'appliquait à la localisation du son :s'il est moins précis pour les sons plus doux que pour les plus forts. Mais cela s'écarterait de la théorie dominante des cartes spatiales, connu sous le nom de modèle Jeffress, qui soutient que les sons de tous les volumes sont traités - et donc perçus - de la même manière. Physiologistes, qui proposent que les mammifères s'appuient sur un modèle neuronal plus dynamique, ont longtemps été en désaccord avec elle. Ils soutiennent que les neurones des mammifères ont tendance à se déclencher à des rythmes différents en fonction des signaux directionnels et que le cerveau compare ensuite ces rythmes à travers des ensembles de neurones pour créer dynamiquement une carte de l'environnement sonore.

    "Le défi de prouver ou de réfuter ces théories est que nous ne pouvons pas regarder directement le code neuronal de ces perceptions parce que les neurones pertinents sont situés dans le tronc cérébral humain, nous ne pouvons donc pas en obtenir des images haute résolution, " dit-elle. " Mais nous avions le pressentiment que les deux modèles donneraient des prédictions de localisation sonore différentes à un volume très faible. "

    Ils ont recherché des preuves dans la littérature et n'ont trouvé que deux articles qui avaient enregistré à partir de tissu neural à ces sons faibles. Une étude portait sur des effraies des clochers, une espèce censée s'appuyer sur le modèle de Jeffress, sur la base d'enregistrements à haute résolution dans le tissu cérébral des oiseaux - et l'autre étude portait sur un mammifère, le macaque rhésus, un animal pensé pour utiliser le codage de débit dynamique. Ils ont ensuite soigneusement reconstruit les propriétés de déclenchement des neurones enregistrés dans ces anciennes études et ont utilisé leurs reconstructions pour estimer la direction du son à la fois en fonction de l'ITD et du volume.

    « Nous nous attendions à ce que pour les données sur la chouette effraie, peu importe le niveau sonore d'une source - la direction du son prédite doit être très précise quel que soit le volume sonore - et nous avons pu le confirmer. Cependant, ce que nous avons trouvé pour les données sur les singes, c'est que la direction du son prédite dépend à la fois de l'ITD et du volume, " dit-elle. " Nous avons ensuite recherché dans la littérature humaine des études sur la direction du son perçu en fonction de l'ITD, qui a également été pensé pour ne pas dépendre du volume, mais, étonnamment, n'a trouvé aucune preuve pour étayer cette croyance de longue date. »

    Elle et son étudiant diplômé, Nima Alamatsaz, puis enrôlé des volontaires sur le campus du NJIT pour tester leur hypothèse, utiliser des sons pour tester comment le volume affecte l'endroit où les gens pensent qu'un son émerge.

    "Nous avons construit un environnement extrêmement silencieux, salle insonorisée avec un équipement calibré spécialisé qui nous a permis de présenter des sons avec une grande précision à nos bénévoles et d'enregistrer d'où ils percevaient le son d'origine. Et bien sûr, les gens ont mal identifié les sons plus doux, " note Alamatsaz.

    "À ce jour, nous sommes incapables de décrire précisément les calculs de localisation du son dans le cerveau, " ajoute Ihlefeld. " Cependant, les résultats actuels sont incompatibles avec l'idée que le cerveau humain repose sur un calcul de type Jeffress. Au lieu, nous semblons nous fier à un mécanisme légèrement moins précis.

    Plus généralement, disent les chercheurs, leurs études indiquent des parallèles directs dans l'audition et la perception visuelle qui ont été négligés jusqu'à présent et qui suggèrent que le codage basé sur le taux est une opération sous-jacente de base lors du calcul des dimensions spatiales à partir de deux entrées sensorielles.

    "Parce que notre travail découvre des principes unificateurs à travers les deux sens, nous prévoyons que le public intéressé comprendra des scientifiques cognitifs, des physiologistes et des experts en modélisation informatique de l'audition et de la vision, " dit Ihlefeld. " Il est fascinant de comparer la façon dont le cerveau utilise les informations qui parviennent à nos yeux et à nos oreilles pour donner un sens au monde qui nous entoure et de découvrir que deux perceptions apparemment sans lien - la vision et l'ouïe - peuvent en fait être assez similaires après tout. ."


    © Science https://fr.scienceaq.com