ciencia, implantes cerebrales
Las mejoras en las interfaces cerebro-computadora están acercando la tecnología a la velocidad de una conversación natural.
31 marzo 2025,- Un implante que lee el cerebro y traduce señales neuronales en voz audible ha permitido a una mujer con parálisis escuchar lo que quiere decir casi instantáneamente.
Los investigadores mejoraron el dispositivo, conocido como interfaz cerebro-computadora (BCI), con algoritmos de inteligencia artificial (IA) que decodificaban las frases a medida que la mujer las pensaba y luego las pronunciaban en voz alta con una voz sintética. A diferencia de los métodos anteriores , que solo podían producir sonidos después de que los usuarios terminaran una frase completa, el enfoque actual puede detectar palabras simultáneamente y convertirlas en voz en tres segundos.
Los hallazgos, publicados en Nature Neuroscience el 31 de marzo de 2011 , representan un gran paso hacia las BCI que tienen un uso práctico.
Las BCI generadoras de voz más antiguas son similares a una conversación de WhatsApp, afirma Christian Herff, neurocientífico computacional de la Universidad de Maastricht (Países Bajos), quien no participó en el trabajo. «Escribo una frase, tú escribes otra y necesitas tiempo para volver a escribirla… Simplemente no fluye como una conversación normal».
Las BCI que transmiten voz en tiempo real son “el siguiente nivel” en la investigación porque permiten a los usuarios transmitir el tono y el énfasis que son característicos del habla natural.
Lector de señales cerebrales
La participante del estudio, Ann, perdió el habla tras un derrame cerebral en el tronco encefálico en 2005. Unos 18 años después, se sometió a una cirugía para colocarle un rectángulo fino como el papel con 253 electrodos en la superficie de la corteza cerebral. El implante puede registrar la actividad combinada de miles de neuronas simultáneamente.
Los investigadores personalizaron la voz sintética para que sonara como la propia voz de Ann antes de su lesión, entrenando algoritmos de IA con grabaciones de su video de boda.
Durante el último estudio, Ann pronunció en silencio 100 oraciones de un conjunto de 1024 palabras y 50 frases que aparecieron en una pantalla. El dispositivo BCI capturó sus señales neuronales cada 80 milisegundos, comenzando 500 milisegundos antes de que Ann comenzara a pronunciar las oraciones en silencio. Produjo entre 47 y 90 palabras por minuto (una conversación natural se produce a unas 160 palabras por minuto).
Los resultados representan una mejora notable en comparación con una versión anterior de la tecnología que Ann probó en un estudio previo 2 , y con el dispositivo de comunicación asistente que utiliza actualmente, que tarda más de 20 segundos en transmitir una sola frase.
Aunque la BCI funciona con frases cortas, aún opera con un retraso considerable en comparación con una conversación natural. Estudios 3 demuestran que, «cuando el retraso supera los 50 milisegundos, empieza a ser realmente confuso».
“Aquí es donde nos encontramos ahora mismo”, afirma el coautor del estudio, Edward Chang, neurocirujano de la Universidad de California en San Francisco. “Pero, como pueden imaginar, con más sensores, mayor precisión y un procesamiento de señales mejorado, todo esto solo cambiará y mejorará”.
Referencias
1. Littlejohn, K. T. et al. Nature Neurosci. https://doi.org/10.1038/s41593-025-01905-6 (2025). Artículo
2. Metzger, S. L. et al. Nature 620, 1037–1046 (2023). Artículo
3. Stuart, A., Kalinowski, J., Rastatter, M. P. & Lynch, K. J. Acoust. Soc. Am. 111, 2237–2241 (2002). Artículo
COMENTARIOS