La primera decodificación exitosa de habla tonal en tiempo real promete revolucionar las interfaces cerebro-ordenador para miles de millones de hablantes de lenguas tonales y personas con problemas el habla.
Dentro del cráneo, donde nadie puede ver, existe una “fábrica de palabras” que genera significados y tonos. Durante milenios, solo nuestros labios podían transformar esas ideas en sonidos. Hoy, gracias a electrodos diminutos y algoritmos de inteligencia artificial, un grupo de neurocientíficos en Shanghái ha abierto un canal que permite que el pensamiento en mandarín se convierta directamente en caracteres escritos en una pantalla.
Este avance, publicado en la revista Science Advances, marca un hito en el campo de las interfaces cerebro-ordenador (BCI, por sus siglas en inglés). Por primera vez se ha logrado decodificar en tiempo real el habla tonal del mandarín, uno de los idiomas más complejos del mundo. El logro abre la puerta a que millones de personas que han perdido la capacidad de hablar —por un ictus o una enfermedad neurológica— puedan recuperar la comunicación.
Hasta ahora, la mayoría de los sistemas BCI se habían centrado en el inglés y otras lenguas no tonales, más fáciles de procesar. El mandarín, en cambio, depende de variaciones de entonación para diferenciar significados. Por ejemplo, una misma sílaba puede tener hasta cuatro significados distintos según el tono. Esto hacía que los algoritmos diseñados para lenguas occidentales fueran insuficientes.
El equipo liderado por el neurocirujano Jinsong Wu (Universidad Fudan) y el ingeniero neural Zhitao Zhou (Laboratorio Clave de Interfaces Cerebro-Ordenador de Shanghái) trabajó durante años en este desafío. “El matiz tonal es la esencia del mandarín. Si no se captura, el mensaje se pierde”, explicó Wu. Zhou añadió: “Queríamos devolver la voz a quienes la han perdido, pero sabíamos que necesitábamos soluciones específicas para lenguas tonales”.
El experimento
La oportunidad surgió con una paciente epiléptica que debía llevar electrodos implantados temporalmente para planificar su cirugía. Durante dos semanas, la voluntaria repitió unas 400 sílabas tonales mientras su actividad cerebral era registrada. Ese catálogo de datos permitió entrenar el sistema para traducir, en tiempo real, la actividad neuronal en caracteres chinos proyectados en una pantalla.
El resultado fue sorprendente: el sistema alcanzó un 70% de precisión y logró escribir unos 50 caracteres por minuto. En diciembre de 2024, la paciente pudo enviar saludos de Año Nuevo únicamente con el pensamiento, viendo cómo sus palabras aparecían en caracteres ante sus ojos.
El avance es prometedor, aunque todavía limitado. La velocidad es apenas una quinta parte de la del habla normal y la precisión debe mejorar. Sin embargo, los investigadores destacan que se trata de un salto histórico. “Trabajar con personas sanas nos da datos más limpios, pero el verdadero reto será aplicarlo en pacientes que ya no pueden hablar”, señaló Wu.
Expertos internacionales, como Matthew Leonard (Universidad de California, San Francisco) y Sergey Stavisky (UC Davis), coincidieron en que la complejidad del mandarín había sido una barrera para el desarrollo de prótesis lingüísticas. “El hecho de lograr decodificación en tiempo real marca un antes y un después”, comentó Leonard.
El equipo planea aumentar la velocidad y precisión del sistema, además de desarrollar implantes inalámbricos que puedan usarse fuera del hospital. También buscan probar la tecnología en pacientes con dificultades reales del habla, como quienes han sufrido un ictus o padecen enfermedades neurodegenerativas.
Con información de Science Avances
