BFMTV

Personnes muettes: des chercheurs élaborent un synthétiseur vocal en temps réel

Des chercheurs ont conçu un synthétiseur capable de reconstituer la parole d’une personne articulant "silencieusement", c’est-à-dire bougeant sa langue, ses lèvres, sa mâchoire, mais ne vocalisant pas.

Des chercheurs ont conçu un synthétiseur capable de reconstituer la parole d’une personne articulant "silencieusement", c’est-à-dire bougeant sa langue, ses lèvres, sa mâchoire, mais ne vocalisant pas. - iStock - humonia

Des chercheurs ont mis au point un synthétiseur capable de reconstituer la parole d’une personne articulant "silencieusement", en captant les signaux physiologiques de la langue et de la mâchoire pour les convertir en temps réel en une voix de synthèse.

Permettre à une personne de parler sans qu’aucun son ne sorte de sa bouche. Tel est ce que pourrait permettre le projet de chercheurs du GIPSA-lab (Grenoble Images Parole Signal Automatique) et du BrainTech Laboratory qui ont conçu un synthétiseur vocal d'un nouveau genre. Ce dernier est pilotable en temps réel à partir de mouvements articulatoires de la bouche.

Il permet concrètement de reconstituer la parole d'une personne qui bouge sa langue, ses lèvres et sa mâchoire, mais qui n'émet pas de son. Leurs travaux, publiés dans la revue PLoS Computational Biology, expliquent comment le dispositif établit la conversion d'une articulation silencieuse en "un signal de parole intelligible" pour une reconstruction directe de la parole.

Le synthétiseur est muni d'un algorithme d'apprentissage automatique utilisé pour décoder les mouvements articulatoires, et de capteurs posés sur la langue, les lèvres et la mâchoire pour les convertir en temps réel en une parole de synthèse.

Une application médicale et pour le quotidien

Les chercheurs souhaitent concevoir un synthétiseur pilotable "par n’importe quel locuteur (après une courte période de calibration du système)". Celui-ci se caractérise également par une "absence de restriction sur le vocabulaire, ce qui est classiquement le cas dans les systèmes de lecture labiale automatique", expliquent-ils.

La réalisation d'une telle interface de communication fait l'objet de recherches au CNRS* depuis plusieurs années, avec l'objectif d'une application médicale pour certaines pathologies du larynx. A terme, les chercheurs souhaitent également que les différents capteurs ainsi que les algorithmes de décodage et de reconstruction de la parole puissent être embarqués sur un smartphone.

"Cela permettrait de communiquer dans des lieux ou circonstances nécessitant de la discrétion ou au contraire dans des environnements extrêmement bruyants, dans lesquels l’exploitation d’une voix enregistrée à l’aide d’un microphone est très difficile".

Mais les scientifiques du GIPSA-lab ont un but encore bien plus ambitieux. Ces derniers travaillent actuellement sur la restauration de la parole grâce à une interface qui ferait directement le lien entre le cerveau de la personne et la machine. "L’objectif, à terme, est de reconstruire la parole en temps réel, mais cette fois-ci à partir de l’activité cérébrale", concluent-ils.

*Centre national de la recherche scientifique

Alexandra Bresson