Se ha hecho pública a través de ELRA la base de datos EMG-Voc ReSSint Database
https://islrn.org/resources/057-914-072-202-4
https://catalog.elra.info/en-us/repository/browse/ELRA-S0498
Aholab is the short name of the Signal Processing Laboratory of the University of the Basque Country (UPV/EHU). The laboratory is located in Bilbao. We are a university research team and focus our research in the areas of Text to Speech Conversion, Speech and Speaker Recognition, and Speech Processing in general. Since 2005 we are a recognized research group of the Basque Research Network. The laboratory is part of the Basque Center for Language Technology (HiTZ) and the Department of Communications Engineering of the Faculty of Engineering of Bilbao (ETSI).
Se ha hecho pública a través de ELRA la base de datos EMG-Voc ReSSint Database
https://islrn.org/resources/057-914-072-202-4
https://catalog.elra.info/en-us/repository/browse/ELRA-S0498
Este año hemos participado en la LibriBrain Competition 2025, un desafío internacional presentado en NeurIPS 2025 que impulsa la investigación de decodificación de lenguaje a partir de señales cerebrales no invasivas, utilizando el extenso conjunto de datos LibriBrain. El objetivo de la competición es fomentar avances significativos en interfaces cerebro-ordenador que puedan, en el futuro, ayudar a restaurar la comunicación en personas con déficits del habla y abrir nuevas vías para la interacción entre humanos y máquinas a través de señales neurales.
Nuestro sistema neural2speech logró el primer puesto en el Phoneme Classification Standard Track, una de las dos pistas del desafío de clasificación de fonemas que exige a los participantes desarrollar modelos capaces de predecir fonemas a partir de datos de MEG (magnetoencefalografía), utilizando únicamente el conjunto de entrenamiento oficial sin datos externos.
En el paper “MEGConformer: Conformer-Based MEG Decoder for Robust Speech and Phoneme Classification” describimos la arquitectura y los métodos clave detrás de nuestro enfoque: adaptamos un modelo Conformer, originalmente desarrollado para tareas de reconocimiento automático de voz (ASR), a señales MEG de 306 canales para capturar características temporales y espectrales relevantes. Implementamos técnicas como normalización a nivel de ejemplo para mitigar cambios de distribución entre particiones de datos y un cargador dinámico de agrupamiento para mejorar la clasificación de fonemas en promedios de muestras, junto con un esquema de ponderación de clases basado en la raíz inversa del número de ejemplos para manejar el desequilibrio de clases.
Gracias a estas innovaciones, el modelo alcanza resultados robustos en el Standard Track de clasificación de fonemas, destacándose entre las soluciones presentadas y consolidando un avance significativo en la intersección entre procesamiento del lenguaje y neurociencia.
De nuevo disponible la aplicación que permite utilizar nuestras voces en Windows: AhoSAPI.
Con voces en castellano, euskera, gallego y catalan, y posibilidad de añadir tus voces personalzadas si utilizas AhomyTTS.
Consígela en https://aholab.ehu.eus/aholab/es/ahosapi/ .
ATENCIÓN: Los puestos ya se han cubierto
Puestos disponibles: 3
Descripción del puesto: Buscamos tres personas del sector de TI o telecomunicaciones con pasión por la inteligencia artificial y las redes neuronales.
Responsabilidades:
Colaborar con el equipo para mejorar la precisión y la eficiencia de los sistemas de reconocimiento de voz.
Investigar y aplicar las últimas técnicas en inteligencia artificial.
Trabajar en estrecha colaboración con otros miembros del equipo para alcanzar los objetivos del proyecto.
Requisitos:
Experiencia previa en programación y desarrollo de algoritmos.
Capacidad para trabajar en equipo y comunicarse eficazmente.
Se valorarán sólidos conocimientos de redes neuronales y procesamiento de señales de voz.
Beneficios:
Entorno de trabajo colaborativo y creativo.
Formación continua y desarrollo profesional.
Salario bruto aproximado de 32.000 € anuales.
Si te interesa unirte a nuestro equipo y contribuir al futuro de las tecnologías del habla, ¡esperamos tu solicitud! ¡Escríbenos!
Jueves 12 de Junio
17:30
ADELA – ARABA
Durante el curso de algunas enfermedades, como por ejemplo la ELA, puede llegar a perderse la capacidad de hablar de forma fluida. Pero ello no debería significar que perdamos la comunicación con nuestro entorno: familiares, cuidadores etc. Ello puede ser posible gracias a dispositivos electrónicos, que nos permitirán emitir mensajes con una voz sintética. En esta charla hablaremos del proyecto AhomyTTS, a través del cual es posible conseguir que esa voz sintética se parezca a la que tenemos ahora.
Comienza nuestra actividad en la red social Bluesky.
A partir de ahora, podréis encontrarnos en https://bsky.app/profile/aholab.bsky.social.