Una mujer volvió a hablar tras 18 años gracias a un implante cerebral con IA

NOTI-AMERICA.COM | ARGENTINA
Ann, una mujer de 47 años con cuadriplejía logró hablar luego de 18 años gracias a un nuevo dispositivo y los últimos avances de la inteligencia artificial (IA).
Una neuroprótesis compuesta por 253 electrodos, implantada directamente sobre su cerebro, registró su actividad cerebral y envió las señales a una computadora, que transformó sus pensamientos en palabras pronunciadas con una voz idéntica a la que tenía antes de sufrir un accidente cerebrovascular (ACV) o ictus, a los 30 años.
La descripción del método desarrollado por un equipo de investigadores de Universidad de California en Berkeley y Universidad de California San Francisco, se publicó en la revista Nature Neuroscience y marca un importante avance en el campo de las interfaces cerebro-computadora.
Se trata de un sistema de transmisión capaz de convertir las señales cerebrales en habla audible casi en tiempo real, dijeron los investigadores.
Y explicaron las importancia de este avance: “Los retrasos en el habla superiores a unos pocos segundos pueden interrumpir el flujo natural de la conversación. Esto impide que las personas con parálisis participen en diálogos significativos, lo que puede generar sentimientos de aislamiento y frustración”.
A diferencia de los métodos anteriores, que generaban sonidos únicamente después de que los usuarios completaban una frase entera, el dispositivo actual permite detectar y transformar palabras en voz en solo tres segundos, de forma simultánea al pensamiento.
Para lograrlo, los investigadores mejoraron la interfaz cerebro-computadora (BCI, por sus siglas en inglés) con algoritmos de inteligencia artificial (IA) capaces de decodificar las frases mientras la paciente las pensaba, y reproducirlas en voz alta mediante una voz sintética.
“Nuestro enfoque de streaming incorpora la misma capacidad de decodificación rápida de voz de dispositivos como Alexa y Siri a las neuroprótesis”, afirmó Gopala Anumanchipalli, profesor adjunto Robert E. y Beverly A. Brooks de Ingeniería Eléctrica y Ciencias de la Computación en UC Berkeley y coinvestigador principal del estudio.
Y agregó: “Usando un algoritmo similar, descubrimos que podíamos decodificar datos neuronales y, por primera vez, permitir la transmisión de voz casi sincrónica. El resultado es una síntesis de voz más natural y fluida”.
“Al demostrar una síntesis precisa de cerebro a voz en otros conjuntos de datos de habla silenciosa, demostramos que esta técnica no se limita a un tipo específico de dispositivo”, afirmó Kaylo Littlejohn, estudiante de doctorado del Departamento de Ingeniería Eléctrica y Ciencias de la Computación de UC Berkeley y coautor principal del estudio. “El mismo algoritmo puede utilizarse en diferentes modalidades, siempre que exista una buena señal”.
Ann, la participante del estudio, sufrió un derrame cerebral en el tronco encefálico en 2005 que le quitó la capacidad de hablar. Dieciocho años después, se sometió a una cirugía en la que se le implantó un rectángulo delgado como un papel con 253 electrodos sobre la superficie de su corteza cerebral. Este implante es capaz de registrar la actividad combinada de miles de neuronas al mismo tiempo.
Y agregó: “Usando un algoritmo similar, descubrimos que podíamos decodificar datos neuronales y, por primera vez, permitir la transmisión de voz casi sincrónica. El resultado es una síntesis de voz más natural y fluida”.
“Al demostrar una síntesis precisa de cerebro a voz en otros conjuntos de datos de habla silenciosa, demostramos que esta técnica no se limita a un tipo específico de dispositivo”, afirmó Kaylo Littlejohn, estudiante de doctorado del Departamento de Ingeniería Eléctrica y Ciencias de la Computación de UC Berkeley y coautor principal del estudio. “El mismo algoritmo puede utilizarse en diferentes modalidades, siempre que exista una buena señal”.
Ann, la participante del estudio, sufrió un derrame cerebral en el tronco encefálico en 2005 que le quitó la capacidad de hablar. Dieciocho años después, se sometió a una cirugía en la que se le implantó un rectángulo delgado como un papel con 253 electrodos sobre la superficie de su corteza cerebral. Este implante es capaz de registrar la actividad combinada de miles de neuronas al mismo tiempo.
Para recuperar su forma original de comunicación, los investigadores entrenaron algoritmos de inteligencia artificial con grabaciones de un video de su boda, logrando así personalizar una voz sintética que reproduce el tono que tenía antes del ictus.
Para reunir los datos necesarios para entrenar el algoritmo, los investigadores le mostraron a Ann indicaciones en la pantalla, como la frase “Hola, ¿cómo estás?”, y le solicitaron que intentara pronunciarla en silencio.
Luego, la paciente leyó en silencio 100 oraciones seleccionadas de un conjunto de 1024 palabras, junto con 50 frases que se mostraron en una pantalla. El dispositivo BCI registró su actividad neuronal cada 80 milisegundos, iniciando la captura 500 milisegundos antes de que comenzara a articular mentalmente cada oración. El sistema logró generar entre 47 y 90 palabras por minuto, mientras que una conversación habitual alcanza unas 160.
Estos resultados marcan un avance muy importante frente a la versión previa de esta tecnología que Ann había probado en un estudio anterior, y también respecto al dispositivo de comunicación asistida que usa actualmente, el cual requiere más de 20 segundos para emitir una sola frase.
Edward Chang, neurocirujano de la Universidad de California en San Francisco y coautor del estudio, señaló que con un aumento en la cantidad de sensores, una mayor precisión y un procesamiento de señales más avanzado, la tecnología seguirá evolucionando.
Los investigadores también trabajan en mejorar la expresividad de la voz sintetizada, con el objetivo de reproducir variaciones en el tono, timbre o volumen que se producen durante el habla natural, como sucede cuando una persona manifiesta distintas emociones.
Comentarios recientes