Tendencias

Utilizan inteligencia artificial para transformar las señales cerebrales en palabras

Utilizan inteligencia artificial para transformar las señales cerebrales en palabras
T13
Compartir
La tecnología podría ser utilizada algún día para ayudar a las personas que no pueden hablar para comunicarse.

En un esfuerzo por brindar una voz a las personas que no pueden hablar, los neurocientíficos han diseñado un dispositivo que puede transformar las señales cerebrales en el habla.

Esta tecnología aún no es lo suficientemente precisa para su uso fuera del laboratorio, aunque puede sintetizar oraciones completas que son en su mayoría inteligibles. Sus creadores describieron su dispositivo de decodificación del habla en un estudio publicado el 24 de abril en la revista Nature.

Los científicos han utilizado previamente la inteligencia artificial para traducir palabras sueltas, que consisten principalmente en una sílaba, de la actividad cerebral, dice Chethan Pandarinath, neuroingeniero de la Universidad de Emory en Atlanta, Estadios Unidos, quien coescribió un comentario que acompaña el estudio. "Dar el salto de las sílabas individuales a las oraciones es técnicamente bastante desafiante y es una de las cosas que hace que el trabajo actual sea tan impresionante", dice.

Hoy en día, la alternativa para quienes no pueden hablar es un software que junte letras para formar palabras con la ayuda de un cursor, como lo hacía el físico Stephen Hawking, lo que hace el proceso muy lento.

El habla natural tiene un promedio de 150 palabras por minuto. "Es la eficiencia del tracto vocal lo que nos permite hacer eso", dice. Y así, Chang y su equipo decidieron modelar el sistema vocal al construir su decodificador, haciendo el proceso de “traducción” mucho más rápido.

Los investigadores trabajaron con cinco personas a quienes se les implantaron electrodos en la superficie del cerebro como parte del tratamiento de la epilepsia.

El equipo registró la actividad cerebral mientras los participantes leían cientos de oraciones en voz alta. Luego, Chang y sus colegas combinaron estas grabaciones con datos de experimentos previos que determinaron cómo los movimientos de la lengua, los labios, la mandíbula y la laringe creaban el sonido.

El equipo entrenó un algoritmo de aprendizaje profundo en estos datos y luego incorporó el programa en su decodificador. El dispositivo transforma las señales cerebrales en movimientos estimados del tracto vocal y convierte estos movimientos en lenguaje sintético. Las personas que escucharon 101 oraciones sintetizadas podían entender el 70% de las palabras en promedio, dice Chang.

Este, es el primer paso para lograr transmitir pensamientos sin tener que utilizar la voz, “leyendo” directamente los pensamientos por una inteligencia artificial.

Señal T13 En Vivo