BFMTV
Société

Entendre "Laurel" ou "Yanny"? Normal, on écoute avec son cerveau

-

- - -

Une séquence sonore est devenue virale sur les réseaux sociaux depuis quelques jours: "Laurel" ou "Yanny"? Tout le monde n’entend pas la même chose. Des spécialistes en psychoacoustique expliquent pourquoi la perception auditive d’un son peut varier d’une personne à une autre.

Ce sont deux mots qui divisent les réseaux sociaux depuis quelques jours. Ou un seul? On ne sait pas trop, mais tout le monde se prête au jeu de cet enregistrement sonore. Et vous, vous entendez "Laurel" ou plutôt "Yanny"? "Ce qui fait débat c’est que certains sont persuadés d’entendre un mot et d’autres d’entendre l’autre. Mais personne n’a tort, ou personne n’a raison", s’amuse Vincent Koehl. Spécialiste en psychoacoustique, ce maître de conférences à l’université de Bretagne occidentale n’entend de son côté que "Laurel", mais il est mieux placé que le commun des mortels pour savoir que beaucoup de facteurs, au-delà de votre qualité auditive, influent sur votre compréhension des sons.

La première chose importante pour déterminer ce qui vous rangera dans le camp des "Laurel" ou dans celui des "Yanny" peut résider dans la qualité sonore de l’extrait. "Quand un son est grave et un autre aigu, le cerveau peut facilement les séparer. Si on a un très bon casque, qui restitue très bien les fréquences, ça marchera bien", assure Vincent Koehl.

"Mais si on a un casque tout pourri qui a du mal à restituer les basses fréquences ce sera plus dur. Si vous l’avez écouté sur les enceintes de votre PC, qui ne sont a priori pas toujours très bonnes, ou chez vous sur votre chaîne hi-fi, les capacités de séparation des flux sont différentes. Si tout le monde l’écoutait en bonne qualité, on serait peut-être tous capable d’entendre qu’il y a deux sons différents dans l’enregistrement, et notre attention de sélectionner l’un des deux".

Cette piste pour lever le mystère sur cette énigme sonore a d’une certaine manière été creusée par Jackson Graves, chercheur américain du laboratoire des systèmes perceptifs de l’Ecole normal supérieure (ENS), qui en fait une petite vidéo:

"En jouant le son à une vitesse plus lente, on peut biaiser la perception de ce son vers "Yanny" - pour moi c’était "Laurel" dans la version originale, mais "Yanny" dans la 3e version de cette vidéo. Ma conclusion est que la perception de ce son dépend de la fréquence des "formants", des pics dans le spectre du son qui nous permettent de discriminer les voyelles", explique-t-il.

L’âge de la personne qui écoute peut également jouer, mais de façon plus marginale: en vieillissant, certains sont victimes d’une perte de la perception auditive des aigus.

"Techniquement il n’y a qu’un seul son, mais on peut l’interpréter de deux manières différentes"

Mais dans l’histoire, ce ne sont pas vos qualités auditives qui jouent en priorité. Parce qu’écouter et entendre, ce n’est pas vraiment ce que vous croyez: "Vos oreilles, c’est plutôt votre cerveau, et ce genre d’illusion auditive le prouve, s’amuse Daniel Pressnitzer, responsable du département audition de l’ENS. Entendre et regarder, on a du mal à imaginer qu’en fait c’est très compliqué. Quand on entend quelque chose, le cerveau va interpréter, il doit résoudre une devinette. Dans ce cas-là, où l’information est ambiguë, sans le vouloir, certains vont affirmer que c’est "Laurel" et d’autres que c’est plutôt "Yanny". Et cela en fonction de son expérience auditive passée, ou du contexte autour du son. On va être amené à affirmer l’un ou l’autre. Techniquement il n’y a qu’un seul son, mais on peut l’interpréter de deux manières différentes".

Dans le cas présent, Nicolas Grimault, chercheur en psychoacoustique au CNRS, voit tout de même un "biais linguistique". "Pour des anglophones, la prononciation de "Yanny" se rapproche plus de "Laurel", et donc l’illusion marche sans doute bien mieux dans cette communauté. Je pense que les francophones, à une très large majorité, percevront "Laurel". D’autant que si on hésite entre deux mots, notre cerveau va le catégoriser vers le plus familier".

"Sans ce système d’interprétation, on serait dans l’incapacité de percevoir la parole dès qu’il y a un bruit de fond"

Ce mécanisme, s’il vous joue des tours dans le cas de l’expérience du "Laurel ou Yanny", est à la base de notre compréhension auditive, et même plus largement de votre maîtrise du langage. "C’est comme ça qu’on accélère l’accession au sens. Sans ce système d’interprétation, on serait dans l’incapacité de percevoir la parole dès qu’il y a un bruit de fond. Mais on peut le reconstruire parce qu’on connaît le mot", raconte Nicolas Grimault. C’est donc le contexte qui aidera votre cerveau à se décider, même si le son n’a pas été entendu parfaitement.

"Si vous écoutez le "Laurel ou Yanny" après avoir vu un film de Laurel et Hardy, je pense que vous entendrez "Laurel" et pas "Yanny", assure Daniel Pressnitzer. Le contexte, c’est tout ce qui est autour du son mais qui n’est pas dans le son. On s’en sert tout le temps et c’est capital".

Capital, parce que sans lui "il nous faudrait énormément de temps pour analyser le signal", estime Nicolas Grimault. C’est d’ailleurs ce qui fait que ce système de reconnaissance vocale humain est bien plus performant que ceux développés pour nos smartphones. "Ils ont fait beaucoup de progrès récemment, mais quand il y a un peu de bruit, l’appareil se trompe souvent, parce que l’information n’est pas suffisante, reprend Daniel Pressnitzer. Si on était capable d’ajouter plus de contexte d’interprétation, on saurait depuis longtemps faire des appareils qui retranscrivent la parole de façon parfaite". Et Siri, il entend "Laurel" ou "Yanny"?

Antoine Maes