Comment notre cerveau distingue une voix dans le brouhaha ?

Effet cocktail party

Audiology infos

Au milieu d'un restaurant bondé, nous parvenons malgré tout à porter notre attention sur la personne qui parle à notre table, en dépit des bavardages bruyants de nos voisins. Cette capacité du cerveau humain à trier les informations sonores qui lui parviennent dans un environnement complexe intrigue les chercheurs, qui souhaitent décoder le mécanisme de ce qu'ils appellent l'effet "cocktail party". Une équipe de l'université de Californie à San Francisco (États-Unis) a utilisé une nouvelle méthode qui recrée les sons perçus par le cortex cérébral pour mieux comprendre la façon dont celui-ci "tend l'oreille" à une personne plutôt qu'à une autre.

Trois personnes normo-entendantes ont été soumises à un test simple : confrontées à deux phrases prononcées simultanément par deux locuteurs différents, elles devaient identifier la phrase contenant un mot-signal (ici, ringo ou tiger). L'originalité de l'expérience est de se baser sur l'activité électrique de la partie postérieure du gyrus temporal supérieur (une aire corticale impliquée dans la perception du langage), enregistrée par un réseau d'électrodes : à partir de la réponse neuronale, les chercheurs californiens parviennent, après un traitement informatique, à reconstituer le spectrogramme perçu par le cortex. Ce dernier est fortement corrélé au message d'origine sélectionné, les auteurs de l'étude concluant que "le système auditif humain restaure la représentation corticale du discours sélectionné en éliminant les paroles non pertinentes avec lesquelles celui-ci est en concurrence". En d'autres termes, un seul message parvient jusqu'au niveau cortical, l'autre, jugé inutile, étant filtré avant cette étape.

En comparant le diagramme reconstruit à ceux des deux phrases concurrentes, il est possible de calculer un indice de modulation attentionnel qui indique vers quel message se porte l'attention de l'auditeur. Cet indice, mesuré tout au long de l'expérience, montre que, lorsque l'auditeur se "trompe" de phrase, l'indice de modulation attentionnel varie plus tôt, indiquant un choix prématuré associé à une erreur. Ces premiers résultats, prometteurs, ouvrent de nombreuses pistes de recherche pour mieux comprendre les mécanismes par lesquels le cerveau opère cette sélection et la façon dont le vieillissement influence cette capacité à trier les sons.

Source : Mesgarani N et Chang EF. Selective cortical representation of attended speaker in multi-talker speech perception. Nature. En ligne le 18 avril 2012.

En savoir plus : Extraire du cerveau les sons que nous écoutons... ou que nous imaginons ?, Audiology infos, le 31 janvier 2012.

Crédit photo : Starkey

G.F.