Aller au menu Aller au contenu
Innover pour un avenir durable

Institut polytechnique de Grenoble

Grenoble Institute of Engineering
Innover pour un avenir durable

> L'Institut > Actualités

Une reconstitution de la parole en temps-réel grâce aux mouvements articulatoires

Publié le 12 décembre 2016
A+Augmenter la taille du texteA-Réduire la taille du texteImprimer le documentEnvoyer cette page par mail Partagez cet article Facebook Twitter Linked In Google+ Viadeo
Communiqué

Des chercheurs du du BrainTech Laboratory (Inserm) et du laboratoire Grenoble images parole signal automatique (CNRS/Grenoble INP/Université Grenoble Alpes) ont conçu un synthétiseur vocal, pilotable en temps-réel uniquement à partir des mouvements articulatoires.

Vue-schématique-du-synthétiseur-vocal-pilotable-en-temps-réel,-basé-sur-un-algorithme-d’apprentissage-machine-profond.-©-Bocquelet-et-al..jpg

Vue-schématique-du-synthétiseur-vocal-pilotable-en-temps-réel,-basé-sur-un-algorithme-d’apprentissage-machine-profond.-©-Bocquelet-et-al..jpg

Il reconstitue la parole d’une personne articulant « silencieusement », sans vocaliser. Un algorithme d’apprentissage automatique, de type réseau de neurones profonds, décode les mouvements articulatoires grâce à des capteurs posés sur la langue, les lèvres et la mâchoire. Il les convertit en temps-réel en une parole de synthèse, sans restriction sur le vocabulaire. Le synthétiseur est a priori pilotable par n’importe quel locuteur, après une courte période de calibration. Les chercheurs travaillent actuellement sur une interface cerveau-machine dont l’objectif, à terme, est de reconstruire la parole en temps réel à partir de l’activité cérébrale.


Bibliographie :

Real-Time Control of an Articulatory-Based Speech Synthesizer for Brain Computer Interfaces.
Florent Bocquelet, Thomas Hueber, Laurent Girin, Christophe Savariaux, Blaise Yvert.
PLOS Computational Biology.
http://dx.doi.org/10.1371/journal.pcbi.1005119


Contact INSERM : Blaise Yvert
Contact CNRS :
Thomas Hueber

Légende de l'image : Vue schématique du synthétiseur vocal pilotable en temps-réel, basé sur un algorithme d’apprentissage machine profond. © Bocquelet et al.

A+Augmenter la taille du texteA-Réduire la taille du texteImprimer le documentEnvoyer cette page par mail Partagez cet article Facebook Twitter Linked In Google+ Viadeo

mise à jour le 19 décembre 2016

Univ. Grenoble Alpes