The BrAIn2Lang website is now online.
This project explores how speech and language can be decoded from brain activity, bringing together neuroimaging and speech technologies.
https://aholab.ehu.eus/brain2lang
Aholab is the short name of the Signal Processing Laboratory of the University of the Basque Country (UPV/EHU). The laboratory is located in Bilbao. We are a university research team and focus our research in the areas of Text to Speech Conversion, Speech and Speaker Recognition, and Speech Processing in general. Since 2005 we are a recognized research group of the Basque Research Network. The laboratory is part of the Basque Center for Language Technology (HiTZ) and the Department of Communications Engineering of the Faculty of Engineering of Bilbao (ETSI).
The BrAIn2Lang website is now online.
This project explores how speech and language can be decoded from brain activity, bringing together neuroimaging and speech technologies.
https://aholab.ehu.eus/brain2lang
In the frame of the brAIn2lang project, we are looking for a highly motivated candidate with:
– MSc in AI, Computer Science, Biomedical Engineering, Computational Neuroscience, or related field
– Strong background in machine learning and deep learning
– Solid Python skills (e.g., PyTorch or TensorFlow)
– Interest in speech processing and/or neural signal decoding
– Excellent written and spoken English skills
Experience with speech technologies or EEG/MEG is a plus.
Odyssey: The Speaker and Language Recognition Workshop
23–26 de junio de 2026, Lisboa, Portugal
Nos complace anunciar la Sesión Especial sobre Tecnologías del Habla y del Lenguaje en el Ámbito Sanitario en Odyssey 2026: un foro dedicado a conectar la investigación en habla y lenguaje con aplicaciones reales en salud.
Esta sesión reunirá trabajos interdisciplinarios sobre tecnologías del habla y del lenguaje con base clínica y vocación de despliegue real — desde sistemas de comunicación asistiva y diagnóstico y monitorización basados en la voz, hasta paradigmas emergentes como las interfaces de habla silenciosa y soluciones personalizadas e inclusivas con impacto tangible en entornos sanitarios.
Si tu trabajo se centra en tecnología asistiva, monitorización de la salud mediante la voz o interfaces de habla basadas en IA que apoyen la comunicación con pacientes — esta es tu oportunidad de contribuir a una comunidad activa donde la investigación responde a necesidades reales.
Fecha límite de envío: 15 de marzo de 2026
Convocatoria y detalles: https://odyssey2026.inesc-id.pt/speech-and-language-technologies-in-healthcare/
Te esperamos en Lisboa para ayudar a dar forma al futuro de la tecnología del habla en el ámbito de la salud.
Se ha hecho pública a través de ELRA la base de datos EMG-Voc ReSSint Database
https://islrn.org/resources/057-914-072-202-4
https://catalog.elra.info/en-us/repository/browse/ELRA-S0498
Investigadores de Aholab presentaron dos contribuciones en el X Congreso Internacional de Fonética Experimental (CIFE 2026), mostrando avances recientes en la personalización de voz mediante redes neuronales y en la síntesis de voz sensible a la variación dialectal.
Iñigo Hierro Muga
Evaluación sistemática de estrategias de personalización de voces basadas en redes neuronales.
Mariana Flores Ríos
Personalización dialectal de sistemas de síntesis de voz: experimentos para el español mexicano.
Estas presentaciones reflejan el compromiso continuo de Aholab con el avance de tecnologías del habla personalizadas y lingüísticamente adaptativas.
Este año hemos participado en la LibriBrain Competition 2025, un desafío internacional presentado en NeurIPS 2025 que impulsa la investigación de decodificación de lenguaje a partir de señales cerebrales no invasivas, utilizando el extenso conjunto de datos LibriBrain. El objetivo de la competición es fomentar avances significativos en interfaces cerebro-ordenador que puedan, en el futuro, ayudar a restaurar la comunicación en personas con déficits del habla y abrir nuevas vías para la interacción entre humanos y máquinas a través de señales neurales.
Nuestro sistema neural2speech logró el primer puesto en el Phoneme Classification Standard Track, una de las dos pistas del desafío de clasificación de fonemas que exige a los participantes desarrollar modelos capaces de predecir fonemas a partir de datos de MEG (magnetoencefalografía), utilizando únicamente el conjunto de entrenamiento oficial sin datos externos.
En el paper “MEGConformer: Conformer-Based MEG Decoder for Robust Speech and Phoneme Classification” describimos la arquitectura y los métodos clave detrás de nuestro enfoque: adaptamos un modelo Conformer, originalmente desarrollado para tareas de reconocimiento automático de voz (ASR), a señales MEG de 306 canales para capturar características temporales y espectrales relevantes. Implementamos técnicas como normalización a nivel de ejemplo para mitigar cambios de distribución entre particiones de datos y un cargador dinámico de agrupamiento para mejorar la clasificación de fonemas en promedios de muestras, junto con un esquema de ponderación de clases basado en la raíz inversa del número de ejemplos para manejar el desequilibrio de clases.
Gracias a estas innovaciones, el modelo alcanza resultados robustos en el Standard Track de clasificación de fonemas, destacándose entre las soluciones presentadas y consolidando un avance significativo en la intersección entre procesamiento del lenguaje y neurociencia.