Subproyecto 2
Aprendizaje profundo para la restauración del habla a partir de bioseñales cerebrales
Descripción SP2
Una de las habilidades más esenciales para el ser humano, nuestra capacidad de hablar, puede verse afectada tras lesiones traumáticaso enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA), una enfermedad que se espera que aumenteglobalmente en un 69% entre 2015 y 2040 debido al envejecimiento de la población y a la mejora de la sanidad pública. A medida queesta enfermedad progresa, las personas que la padecen dejan de poder comunicarse verbalmente y requieren del uso de dispositivos quedependen de señales no verbales para comunicarse. En última instancia, algunas de estas enfermedades pueden dejar al individuo en un estado conocido como síndrome de enclaustramiento, en el que las capacidades cognitivas del individuo están intactas pero éste no puede moverse o comunicarse verbalmente debido a una parálisis completa de casi todos los músculos voluntarios del cuerpo.
En este proyecto pretendemos investigar el uso de las Interfaces de Habla Silenciosa (SSIs; del inglés Silent Speech interfaces) para restaurar la comunicación verbal a estas personas. Las SSIs son dispositivos que capturan señales biológicas e inaudibles generadas durante el proceso de producción de voz y las utilizan para descifrar el mensaje que el usuario quiere decir. En este proyecto se pretende desarrollar una prótesis neural revolucionaria en la que se utilizarán señales electrofisiológicas captadas de la corteza cerebral mediante métodos invasivos y no invasivos para descodificar el habla. En trabajos anteriores se ha demostrado la viabilidad de esta propuesta para el caso de algoritmos de reconocimiento automático de voz entrenados en grabaciones de actividad neuronal. En esta propuesta queremos dar un paso más allá e investigar sobre la generación de voz directamente a partir de la actividad neuronal, lo que posibilitaría la síntesis de voz de forma instantánea. Además, como consecuencia de la plasticidad cerebral y de la retroalimentación acústica, también existe la posibilidad de que los usuarios pudiese aprender a producir una mejor habla con el uso continuo de la prótesis. Para transformar las señales neuronales en audio, utilizaremos los últimos avances en sensores de actividad cerebral, síntesis del habla y técnicas de aprendizaje profundo.
Durante el proyecto se generarán varias bases de datos de actividad neural y señales de voz que se pondrán a disposición de la comunidad investigadora. Además, se desarrollarán nuevas técnicas de aprendizaje profundo. El proyecto se llevará a cabo con la colaboración de un panel de expertos nacionales e internacionales en los campos del aprendizaje automático y las interfaces de voz silenciosa. Como resultado de este proyecto esperamos iniciar una investigación innovadora cuyo objetivo final es tener un impacto real en las vidas de aquellas personas con graves problemas de comunicación, permitiéndoles restaurar o mejorar la forma en que se comunican.