Skip to main content

IA-Speak es un revolucionario proyecto que busca mejorar la rehabilitación y comunicación de personas con problemas del habla, especialmente aquellas con daño cerebral adquirido (DCA). Desarrollado por un consorcio de empresas líderes, centros de investigación y otras entidades, promete ser un cambio significativo en el apoyo a personas con dificultades de comunicación. Adacen participa en este proyecto junto a Copysan, Veridas, Bigd, Falcón Electrónica, NAIR Center y la Fundación Miguel Servet. Este proyecto ha recibido una ayuda financiada por el Gobierno de Navarra en el marco de la convocatoria 2024-2027 de ayudas para la realización de proyectos estratégicos de I+D.

 

La disartria

El daño cerebral adquirido (DCA) afecta a 435.400 personas en España, con más de 2.320 casos en Navarra. Este trastorno puede surgir por diversas causas, como accidentes cerebrovasculares, traumatismos craneoencefálicos o tumores cerebrales, y puede provocar anomalías en la comunicación, entre otras secuelas físicas, cognitivas y emocionales. Una de ellas es la disartria, una alteración de la capacidad motora de los órganos de la articulación en la que las personas afectadas son capaces de elaborar un discurso con sentido y bien estructurado, pero es de difícil compresión para el interlocutor. Genera un alto nivel de aislamiento y frustración en las personas y sus familias, además de producir falta de autonomía en la vida diaria.

Por otro lado, en este tipo de trastornos, la rehabilitación tiene un papel fundamental para mejorar la capacidad de comunicación, siendo un proceso continuo y adaptativo, que debe diseñarse para satisfacer las necesidades específicas de cada individuo. Sin embargo, y pese a los avances tecnológicos que se han producido en los últimos años en otros procesos de rehabilitación, la rehabilitación en personas con trastornos de la comunicación tras un DCA sigue haciéndose en base a criterios subjetivos y estándares y requiriendo siempre la supervisión de un especialista. Además, en muchos casos, sobre todo los más graves, la recuperación nunca llega a producirse. Por lo tanto, existe una necesidad no cubierta para este segmento de la población, de disponer de nuevas herramientas que mejoren los procesos de rehabilitación y que faciliten su comunicación efectiva.

El rápido desarrollo de la inteligencia artificial (IA) y la potencia que ha demostrado en sistemas de reconocimiento de voz, la convierte en la mejor opción para mejorar la rehabilitación, la comunicación y la calidad de vida de las personas que sufren disartria. La IA del reconocimiento automático del habla es de los sistemas más avanzados actualmente, existiendo varios modelos a nivel comercial y métodos cada vez más eficientes. Su uso en domótica, en atención al cliente o traducción simultánea son ejemplos del uso de IA en procesamiento de la voz. No obstante, este tipo de soluciones están muy lejos de ser efectivas en casos en los que los usuarios tienen problemas de voz y/o habla. En este sentido, una de las mayores limitaciones de los modelos de IA son las escasas bases  de datos de pacientes de disartria existentes.

El proyecto IA-Speak se centra en diseñar, desarrollar y validar un sistema inteligente para la asistencia integral y personalizada a personas con trastornos del habla provocados por un DCA. Este sistema ayudará a superar sus barreras de comunicación y a mejorar su calidad de vida e integración social. Además, IA-Speak será útil también para personas con enfermedades neurodegenerativas y personas mayores con dificultades de comunicación. Apoyará a estas personas tanto en su comunicación diaria como en su rehabilitación.

IASpeak trabaja en dos vías. Por un lado, en la creación de una plataforma de rehabilitación inteligente con reconocimiento facial que permitirá adaptar la rehabilitación a las necesidades individuales de cada persona. Por otro lado,  un dispositivo automático de traducción que les facilitará, en su día a día, una comunicación fluida y eficaz.

En el ámbito de la comunicación diaria será un dispositivo portable, que se activará de manera automática cuando el usuario empiece a hablar, grabará la voz, la enviará al servidor donde se alojen los algoritmos de traducción, recibirá la traducción del audio y será capaz de reproducirlo en tiempo real con la voz real de la persona usuaria. Estará fabricado con materiales reciclados y reciclables con tecnologías como la impresión 3D que permiten adaptar la solución a la demanda real. El objetivo es conseguir un dispositivo ligero (peso máximo 150 gramos), con una autonomía de 5 horas y con una durabilidad de más de 20 años.

En cuanto a la rehabilitación, la plataforma será capaz de obtener patrones de voz de estas personas con el apoyo de tecnología de reconocimiento facial y, a partir de ellos, realizar una comparativa con los patrones normativos con el objetivo de establecer un seguimiento y recomendación personalizados de rehabilitación en base a estos criterios objetivos.

El conocimiento obtenido de una persona en la rehabilitación y en la comunicación en su día a día, permitirán obtener información objetiva sobre su estado, que será la base para conseguir un sistema completamente personalizado y, por ende, con una eficacia superior a la oferta actual.

La solución estará constantemente recibiendo información que servirá para entrenar los algoritmos de procesamiento de habla, permitiendo que el sistema sea capaz de aprender de manera automática.

IA-Speak representa un alto grado de innovación a nivel mundial, siendo el primer sistema enfocado tanto en la rehabilitación como en la comunicación efectiva para personas con trastornos del habla tras un DCA.

Empresas participantes y tareas de cada una

El proyecto IA-Speak está liderado por Copysan, empresa experta en Tecnologías de la Información y la Comunicación. Coordina todos los desarrollos tecnológicos que realizan los demás participantes, estando activo desde la definición de requisitos hasta la integración y validación final. Además, desarrolla la parte de rehabilitación de la solución, que incluye un sistema de recomendación inteligente y personalizado de ejercicios basado en IA.

El Centro de Investigación de Inteligencia Artificial de Navarra, NAIR Center, trabaja en la obtención y análisis de patrones de voz para desarrollar un sistema de traducción automática en tiempo real. Nair Center cuenta con investigadores que trabajan, por ejemplo, en neurociencia computacional y la aplicación de IA al análisis de señales biomédicas. Dentro del proyecto, desarrolla los modelos de IA para el reconocimiento automático del habla no estándar permitiendo que los usuarios se comuniquen de forma eficaz y fluida. Estos modelos son una parte clave en el desarrollo del dispositivo de comunicación. Por otro lado, el trabajo realizado en Nair Center servirá para extraer las características del habla y analizarlas con el fin de determinar la evolución y el estado del usuario mediante la plataforma de rehabilitación.

Falcón Electrónica, una empresa referente en el sector electrónico, diseña y desarrolla la electrónica del dispositivo para la comunicación efectiva, de manera coordinada al diseño hardware y teniendo en cuenta los  mismos requisitos de usabilidad, circularidad y sostenibilidad, además de la funcionalidad. Trata de optimizar al máximo el consumo, el tamaño y el coste del sistema final.

Por su parte, BigD, una empresa experta en Diseño Industrial y Digital, se encarga del diseño y desarrollo de la solución integral (dispositivo), centrada en la experiencia del usuario y en criterios de circularidad y sostenibilidad. También está diseñando la plataforma de rehabilitación inteligente.

Veridas. Empresa tecnológica experta en biometría. Se encarga de desarrollar un motor biométrico adaptado al habla no estándar, con el fin de verificar al usuario que quiera hacer uso tanto de la plataforma de rehabilitación como del dispositivo, garantizando la accesibilidad y personalización de la solución.

Adacen, agente del SINAI, con su perfil experto en daño cerebral y logopedia, participa desde  la definición de los requisitos de IA-SPEAK hasta su validación   con personas usuarias crónicas, garantizando una solución adaptada a  ellos. Su objetivo es conseguir un sistema que ayude a estos usuarios a mantener sus características del habla, retrasando el deterioro lo máximo posible. En Adacen se han diseñado los ejercicios personalizados de la plataforma y están llevando a cabo las grabaciones de voz con pacientes crónicos para las bases de datos. Validarán también la solución obtenida.

Para finalizar, la Fundación Miguel Servet, también experta en daño cerebral y logopedia, colabora en la definición de requisitos y validación del sistema con pacientes en estado subagudo, buscando una mejora significativa del habla.

Alto grado de innovación

Gracias tanto a las capacidades individuales de cada uno de los participantes del consorcio, como a su complementariedad y colaboración a lo largo del proyecto, se conseguirá aunar en   un único proyecto importantes innovaciones en distintos ámbitos:

  • Metodologías de rehabilitación: actualmente, en la rehabilitación de la disartria se establece un plan de ejercicios para cada paciente, en función de la percepción subjetiva de las logopedas. Con IA-SPEAK se obtendrán criterios objetivos de evaluación, se facilitará la realización ejercicios de manera remota, con el fin de aumentar la frecuencia, y se dispondrá de ejercicios específicamente diseñados en base a su evolución y necesidades.
  • Algoritmos de obtención e interpretación de patrones de voz y de biometría de voz: no existen soluciones demostradas de procesamiento de voz para personas con trastornos del habla debido a la escasez y a la variabilidad de los datos de este tipo de usuarios. En IA-SPEAK se crearán diferentes modelos y técnicas que permitirán obtener características del habla que son propias de la persona y no de su patologí
  • Plataforma de recomendación inteligente: las plataformas de rehabilitación para personas con DCA existentes, permiten visualización de datos por parte de los profesionales de la logopedia, pero no analizan cómo está realizando los ejercicios el usuario, ni realizan recomendaciones en función de esto. IA-SPEAK será la primera plataforma que caracterice los tipos de usuario, utilice reconocimiento facial y de voz y, además, se diseñe un sistema de recomendación inteligente mediante modelos multimodales.
  • Dispositivo de traducción: existen dispositivos tecnológicamente avanzados para la traducción de idiomas, pero a nivel de algoritmos no están preparados para reconocimiento de personas con trastornos del habla y a nivel de hardware no están adaptados a sus necesidades. Únicamente se conoce una aplicación reciente para traducción de este tipo de personas, que está diseñada para su uso en dispositivos móviles/tablets y, por tanto, tampoco está adaptada para sus necesidades motoras. En IA-SPEAK se propone el uso de un dispositivo completamente adaptado a nivel de HW y funcionalidad, que favorezca la comunicación efectiva de los usuarios, al tiempo que se adapta perfectamente a sus necesidades motoras y cognitivas.

 

El papel de la Inteligencia Artificial

Las técnicas de inteligencia artificial son clave para resolver uno de los mayores retos tecnológicos del proyecto: desarrollar sistemas capaces de comprender y traducir el habla deteriorada, algo para lo que los modelos comerciales actuales son completamente ineficaces. Gracias al aprendizaje automático, se podrán crear modelos entrenados específicamente para este tipo de habla no normativa, permitiendo que los usuarios se comuniquen de forma eficaz y fluida.

IA-SPEAK, además, plantea una plataforma de rehabilitación capaz de evaluar de forma objetiva y continua la evolución de cada usuario, adaptando automáticamente los ejercicios a sus necesidades concretas. Esta personalización solo es posible mediante modelos de IA que analizan en tiempo real la voz, el rostro y el progreso individual de cada paciente.

 

Además, la inteligencia artificial dota al sistema de una capacidad de aprendizaje continuo. A medida que más personas utilicen la solución, sus datos alimentarán los modelos, que podrán afinarse, mejorar sus predicciones y adaptarse a nuevas situaciones clínicas. Esta cualidad evolutiva convierte a IA-SPEAK en una herramienta viva, en constante mejora, algo imposible sin IA.

Por otro lado, la propia arquitectura del sistema, que integra datos de voz e imagen o texto, para ofrecer una respuesta coherente y útil, requiere de técnicas avanzadas de IA multimodal. Esta integración inteligente es la que permite no solo entender lo que dice una persona, sino cómo lo dice, generando una solución centrada en el usuario.