Skip to main content

IA‑Speak is a pioneering project designed to improve the quality of life of people living with dysarthria. Led by a consortium of companies, research centres and partner organisations, it has received support under the Government of Navarra’s strategic R&D funding scheme. 

Dysarthria 

Acquired brain injury (ABI) affects around 435,400 people in Spain, with approximately 104,000 new cases every year. It can cause motor impairments that affect speech, producing dysarthria and, in many cases, serious difficulties in communication. The impact extends to families and frequently limits day‑to‑day autonomy. 

Rehabilitation for these disorders must include specific work on communication and the use of assistive devices, tailored to each individual’s needs. Despite technological advances, there are still too few aids adapted to patients’ real circumstances and capable of accompanying them throughout rehabilitation to facilitate effective communication. 

Rapid progress in artificial intelligence and in speech technologies opens the door to accessible, affordable solutions for people with dysarthria. Automatic speech recognition and high‑quality voice synthesis are already transforming accessibility in other fields, but there are still very few clinical datasets for dysarthria on which to train robust systems. 

IA‑Speak focuses on designing, developing and validating a device and digital platform capable of restoring expressive capacity for people with dysarthria—both in everyday communication and in therapy—thus improving social participation and quality of life. 

The project advances along two complementary lines. First, it creates a personalised synthetic voice for each person, trained where possible on pre‑injury recordings or, alternatively, on samples from close relatives so that the generated voice feels familiar and natural. Second, it develops an application that converts impaired articulation into a clear, intelligible voice in real time. 

For daily communication, the device will be portable, affordable and robust, with an autonomy of at least five hours and a product lifetime of more than twenty years—features that ensure reliability in real‑world conditions. 

For rehabilitation, the platform will objectively record acoustic and speech markers, enabling clinicians to track progress and to tailor exercises and therapeutic recommendations to each person’s evolution using measurable criteria. 

El conocimiento obtenido de una persona en la rehabilitación y en la comunicación en su día a día, permitirán obtener información objetiva sobre su estado, que será la base para conseguir un sistema completamente personalizado y, por ende, con una eficacia superior a la oferta actual.

La solución estará constantemente recibiendo información que servirá para entrenar los algoritmos de procesamiento de habla, permitiendo que el sistema sea capaz de aprender de manera automática.

IA-Speak representa un alto grado de innovación a nivel mundial, siendo el primer sistema enfocado tanto en la rehabilitación como en la comunicación efectiva para personas con trastornos del habla tras un DCA.

Empresas participantes y tareas de cada una

El proyecto IA-Speak está liderado por Copysan, empresa experta en Tecnologías de la Información y la Comunicación. Coordina todos los desarrollos tecnológicos que realizan los demás participantes, estando activo desde la definición de requisitos hasta la integración y validación final. Además, desarrolla la parte de rehabilitación de la solución, que incluye un sistema de recomendación inteligente y personalizado de ejercicios basado en IA.

El Centro de Investigación de Inteligencia Artificial de Navarra, NAIR Center, trabaja en la obtención y análisis de patrones de voz para desarrollar un sistema de traducción automática en tiempo real. Nair Center cuenta con investigadores que trabajan, por ejemplo, en neurociencia computacional y la aplicación de IA al análisis de señales biomédicas. Dentro del proyecto, desarrolla los modelos de IA para el reconocimiento automático del habla no estándar permitiendo que los usuarios se comuniquen de forma eficaz y fluida. Estos modelos son una parte clave en el desarrollo del dispositivo de comunicación. Por otro lado, el trabajo realizado en Nair Center servirá para extraer las características del habla y analizarlas con el fin de determinar la evolución y el estado del usuario mediante la plataforma de rehabilitación.

Falcón Electrónica, una empresa referente en el sector electrónico, diseña y desarrolla la electrónica del dispositivo para la comunicación efectiva, de manera coordinada al diseño hardware y teniendo en cuenta los mismos requisitos de usabilidad, circularidad y sostenibilidad, además de la funcionalidad. Trata de optimizar al máximo el consumo, el tamaño y el coste del sistema final.

Por su parte, BigD, una empresa experta en Diseño Industrial y Digital, se encarga del diseño y desarrollo de la solución integral (dispositivo), centrada en la experiencia del usuario y en criterios de circularidad y sostenibilidad. También está diseñando la plataforma de rehabilitación inteligente.

Veridas. Empresa tecnológica experta en biometría. Se encarga de desarrollar un motor biométrico adaptado al habla no estándar, con el fin de verificar al usuario que quiera hacer uso tanto de la plataforma de rehabilitación como del dispositivo, garantizando la accesibilidad y personalización de la solución.

Adacen, agente del SINAI, con su perfil experto en daño cerebral y logopedia, participa desde la definición de los requisitos de IA-SPEAK hasta su validación con personas usuarias crónicas, garantizando una solución adaptada a ellos. Su objetivo es conseguir un sistema que ayude a estos usuarios a mantener sus características del habla, retrasando el deterioro lo máximo posible. En Adacen se han diseñado los ejercicios personalizados de la plataforma y están llevando a cabo las grabaciones de voz con pacientes crónicos para las bases de datos. Validarán también la solución obtenida.

Para finalizar, la Fundación Miguel Servet, también experta en daño cerebral y logopedia, colabora en la definición de requisitos y validación del sistema con pacientes en estado subagudo, buscando una mejora significativa del habla.

Alto grado de innovación

Gracias tanto a las capacidades individuales de cada uno de los participantes del consorcio, como a su complementariedad y colaboración a lo largo del proyecto, se conseguirá aunar en un único proyecto importantes innovaciones en distintos ámbitos:

  • Metodologías de rehabilitación: actualmente, en la rehabilitación de la disartria se establece un plan de ejercicios para cada paciente, en función de la percepción subjetiva de las logopedas. Con IA-SPEAK se obtendrán criterios objetivos de evaluación, se facilitará la realización ejercicios de manera remota, con el fin de aumentar la frecuencia, y se dispondrá de ejercicios específicamente diseñados en base a su evolución y necesidades.
  • Algoritmos de obtención e interpretación de patrones de voz y de biometría de voz: no existen soluciones demostradas de procesamiento de voz para personas con trastornos del habla debido a la escasez y a la variabilidad de los datos de este tipo de usuarios. En IA-SPEAK se crearán diferentes modelos y técnicas que permitirán obtener características del habla que son propias de la persona y no de su patologí
  • Plataforma de recomendación inteligente: las plataformas de rehabilitación para personas con DCA existentes, permiten visualización de datos por parte de los profesionales de la logopedia, pero no analizan cómo está realizando los ejercicios el usuario, ni realizan recomendaciones en función de esto. IA-SPEAK será la primera plataforma que caracterice los tipos de usuario, utilice reconocimiento facial y de voz y, además, se diseñe un sistema de recomendación inteligente mediante modelos multimodales.
  • Dispositivo de traducción: existen dispositivos tecnológicamente avanzados para la traducción de idiomas, pero a nivel de algoritmos no están preparados para reconocimiento de personas con trastornos del habla y a nivel de hardware no están adaptados a sus necesidades. Únicamente se conoce una aplicación reciente para traducción de este tipo de personas, que está diseñada para su uso en dispositivos móviles/tablets y, por tanto, tampoco está adaptada para sus necesidades motoras. En IA-SPEAK se propone el uso de un dispositivo completamente adaptado a nivel de HW y funcionalidad, que favorezca la comunicación efectiva de los usuarios, al tiempo que se adapta perfectamente a sus necesidades motoras y cognitivas.

 

El papel de la Inteligencia Artificial

Las técnicas de inteligencia artificial son clave para resolver uno de los mayores retos tecnológicos del proyecto: desarrollar sistemas capaces de comprender y traducir el habla deteriorada, algo para lo que los modelos comerciales actuales son completamente ineficaces. Gracias al aprendizaje automático, se podrán crear modelos entrenados específicamente para este tipo de habla no normativa, permitiendo que los usuarios se comuniquen de forma eficaz y fluida.

IA-SPEAK, además, plantea una plataforma de rehabilitación capaz de evaluar de forma objetiva y continua la evolución de cada usuario, adaptando automáticamente los ejercicios a sus necesidades concretas. Esta personalización solo es posible mediante modelos de IA que analizan en tiempo real la voz, el rostro y el progreso individual de cada paciente.

 

Además, la inteligencia artificial dota al sistema de una capacidad de aprendizaje continuo. A medida que más personas utilicen la solución, sus datos alimentarán los modelos, que podrán afinarse, mejorar sus predicciones y adaptarse a nuevas situaciones clínicas. Esta cualidad evolutiva convierte a IA-SPEAK en una herramienta viva, en constante mejora, algo imposible sin IA.

Por otro lado, la propia arquitectura del sistema, que integra datos de voz e imagen o texto, para ofrecer una respuesta coherente y útil, requiere de técnicas avanzadas de IA multimodal. Esta integración inteligente es la que permite no solo entender lo que dice una persona, sino cómo lo dice, generando una solución centrada en el usuario.