Une reconstitution de la parole en temps-réel grâce aux mouvements articulatoires

Des chercheurs du du BrainTech Laboratory (Inserm) et du laboratoire Grenoble images parole signal automatique (CNRS/Grenoble INP/Université Grenoble Alpes) ont conçu un synthétiseur vocal, pilotable en temps-réel uniquement à partir des mouvements articulatoires.
Il reconstitue la parole d’une personne articulant « silencieusement », sans vocaliser. Un algorithme d’apprentissage automatique, de type réseau de neurones profonds, décode les mouvements articulatoires grâce à des capteurs posés sur la langue, les lèvres et la mâchoire. Il les convertit en temps-réel en une parole de synthèse, sans restriction sur le vocabulaire. Le synthétiseur est a priori pilotable par n’importe quel locuteur, après une courte période de calibration. Les chercheurs travaillent actuellement sur une interface cerveau-machine dont l’objectif, à terme, est de reconstruire la parole en temps réel à partir de l’activité cérébrale.


Bibliographie :

Real-Time Control of an Articulatory-Based Speech Synthesizer for Brain Computer Interfaces.
Florent Bocquelet, Thomas Hueber, Laurent Girin, Christophe Savariaux, Blaise Yvert.
PLOS Computational Biology.
http://dx.doi.org/10.1371/journal.pcbi.1005119


Contact INSERM : Blaise Yvert
Contact CNRS :
Thomas Hueber

Légende de l'image : Vue schématique du synthétiseur vocal pilotable en temps-réel, basé sur un algorithme d’apprentissage machine profond. © Bocquelet et al.