The BrAIn2Lang website is now online.
This project explores how speech and language can be decoded from brain activity, bringing together neuroimaging and speech technologies.
https://aholab.ehu.eus/brain2lang
Aholab is the short name of the Signal Processing Laboratory of the University of the Basque Country (UPV/EHU). The laboratory is located in Bilbao. We are a university research team and focus our research in the areas of Text to Speech Conversion, Speech and Speaker Recognition, and Speech Processing in general. Since 2005 we are a recognized research group of the Basque Research Network. The laboratory is part of the Basque Center for Language Technology (HiTZ) and the Department of Communications Engineering of the Faculty of Engineering of Bilbao (ETSI).
The BrAIn2Lang website is now online.
This project explores how speech and language can be decoded from brain activity, bringing together neuroimaging and speech technologies.
https://aholab.ehu.eus/brain2lang
In the frame of the brAIn2lang project, we are looking for a highly motivated candidate with:
– MSc in AI, Computer Science, Biomedical Engineering, Computational Neuroscience, or related field
– Strong background in machine learning and deep learning
– Solid Python skills (e.g., PyTorch or TensorFlow)
– Interest in speech processing and/or neural signal decoding
– Excellent written and spoken English skills
Experience with speech technologies or EEG/MEG is a plus.
Odyssey: The Speaker and Language Recognition Workshop
2026ko ekainaren 23–26, Lisboa, Portugal
Pozik gaude Osasun arloko Hizketa eta Hizkuntza Teknologiei buruzko Saio Berezia Odyssey 2026an iragartzeaz: hizketa eta hizkuntza arloko ikerketa eta osasunaren aplikazio errealak uztartzeko foro espezifikoa.
Saio honek oinarri klinikoa duten eta benetako inplementaziora bideratutako hizketa eta hizkuntza teknologien inguruko diziplina anitzeko lanak bilduko ditu — komunikazio lagungarriko sistemetatik eta ahotsean oinarritutako diagnostiko eta monitorizazioraino, baita hizketa isileko interfazeak bezalako paradigma berriak eta osasun-inguruneetan benetako eragina duten soluzio pertsonalizatu eta inklusiboak ere.
Zure lana teknologia irisgarrian, ahots bidezko osasun-monitorizazioan edo pazienteen komunikazioa laguntzen duten IA-oinarritutako hizketa-interfazeetan oinarritzen bada, hau da benetako beharrei, erantzuten dien ikerketa-komunitate bizi batean parte hartzeko zure aukera.
Lanak bidaltzeko epea: 2026ko martxoaren 15a
Deialdia eta xehetasunak: https://odyssey2026.inesc-id.pt/speech-and-language-technologies-in-healthcare/
Zain izango gaituzu Lisboan, osasun arloko hizketa-teknologiaren etorkizuna elkarrekin eraikitzeko.
Publiko egin da EMG-Voc ReSSint Database datu-basea ELRAren bidez
https://islrn.org/resources/057-914-072-202-4
https://catalog.elra.info/en-us/repository/browse/ELRA-S0498
Aholabeko ikertzaileek bi ekarpen aurkeztu dituzte X Congreso Internacional de Fonética Experimental (CIFE 2026) kongresuan, sare neuronaletan oinarritutako ahots-pertsonalizazioan eta dialekto-kontzientea den hizketa-sintesian egindako azken aurrerapenak erakutsiz.
Iñigo Hierro Muga
Evaluación sistemática de estrategias de personalización de voces basadas en redes neuronales.
Mariana Flores Ríos
Personalización dialectal de sistemas de síntesis de voz: experimentos para el español mexicano.
Aurkezpen hauek Aholabek hizketa-teknologia pertsonalizatu eta linguistikoki moldakorren garapenarekin duen etengabeko konpromisoa islatzen dute.
Aurten, LibriBrain Competition 2025 nazioarteko erronkan parte hartu dugu. NeurIPS 2025en aurkeztu da, eta garuneko seinale ez-inbaditzaileetatik abiatuz lengoaia deskodetzeko ikerketa bultzatzen du, LibriBrain datu-multzo zabala erabiliz. Lehiaketaren helburua ondorengoa da: garun-ordenagailu interfazeetan aurrerapen esanguratsuak sustatzea, etorkizunean hizketa-gabeziak dituzten pertsonen komunikazioa berrezartzen laguntzeko eta seinale neuralen bidez gizakien eta makinen arteko interakziorako bide berriak irekitzeko.
Gure neural2speech sistemak lehen postua lortu zuen Phoneme Classification Standard Track delakoan, hau da, fonemak sailkatzeko erronkaren bi pistetako batean; izan ere, parte-hartzaileek MEG (magnetoentzefalografia) datuetatik abiatuta fonemak aurreikusteko gai diren ereduak garatu behar dituzte, kanpoko daturik gabeko entrenamendu ofizialaren multzoa soilik erabiliz.
“MEGConformer: Conformer-Based MEG Decoder for Robust Speech and Phoneme Classification” paperean arkitektura eta metodo gakoak deskribatzen ditugu gure ikuspegiaren atzean: Conformer eredu bat, jatorrian ahotsaren ezagutza automatikoko zereginetarako garatua (ASR), 306 kanaleko MEG seinaleetara egokitzen dugu, denborazko eta espektrozko ezaugarri garrantzitsuak atzemateko. Adibide mailako normalizazio-teknikak inplementatzen ditugu, datu-partizioen eta taldekatzeko kargagailu dinamiko baten arteko banaketa-aldaketak arintzeko, laginen batez bestekoetan fonemen sailkapena hobetzeko, klaseen ponderazio-eskema batekin batera, klaseen desoreka maneiatzeko adibide-kopuruaren alderantzizko erroan oinarritua.
Berrikuntza horiei esker, ereduak emaitza sendoak lortzen ditu fonemak sailkatzeko Standard Track delakoan, aurkeztutako soluzioen artean nabarmenduz eta hizkuntzaren prozesamenduaren eta neurozientziaren arteko intersekzioan aurrerapen esanguratsua sendotuz.