Este enfoque novedoso se centra en lo que ella intenta decir, más que en lo que ella piensa
Noah Berger // Los investigadores conectan el implante cerebral de Ann al ordenador sintetizador de voz.
1/04/2025
La tecnología y sus avances nos permiten alcanzar hitos que hace unos años parecían imposibles, como el caso de Ann, una mujer estadounidense que con 30 años tuvo un derrame cerebral que afectó a la base conectada con la médula espinal. Perdió la movilidad en brazos y piernas e incluso en los músculos que mueven las cuerdas vocales, lo que la dejo sin habla, pero 20 años después, la IA ha hecho que Ann vuelva a "hablar" en tiempo real con una voz sintetizada.
Dentro de la desgracia que supuso el derrame para Ann, "la suerte" que tuvo esta mujer fue que la región de la corteza motora que se dedica al habla no se dañó. Gracias a este hecho un grupo de investigadores, neurocientíficos y expertos en IA comenzaron a trabajar en una interfaz cerebro máquina (BCI, por sus siglas en inglés) que pudiera devolverle el habla.
No son los primeros, ni serán los últimos en trabajar en un proyecto así, pero su enfoque sí que es diferente a otros proyectos de neurociencia, ya que el proyecto se centra en conseguir que la máquina capte las señales que el cerebro envía cuando una persona va a decir una palabra, es decir, la intención de decir algo, más que centrarse en áreas específicas del lenguaje como hacen otros proyectos.
Por decirlo de una manera más sencilla, este BCI se activa cuando ella intenta decir "hola" más que cuando ella piensa en decirlo. El logro de que 20 años después Ann consiguiera decir lo que quería decir, se debe a años de entrenamiento de una Inteligencia Artificial y una máquina conectada a su cerebro capaz de registrar su actividad neuronal.
Para ello dicho BCI tiene una malla de 253 electrodos conectados a su cerebro que decodifican las conexiones neuronales de la corteza motora del habla. Según Cheol Jun Cho, de Berkeley y coautor principal del estudio, "básicamente, interceptamos la señal donde el pensamiento se convierte en articulación".
Como se puede leer en la nota de la Universidad de California en San Francisco (EEUU), "lo que decodificamos es posterior a que haya surgido la idea, después de haber decidido qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del tracto vocal", cosa que hacemos de manera instantánea.
Pero no es que este BCI sea hipersónico para captar estas conexiones, sino que Ann ha estado entrenando durante años con dicha IA. Al principio Ann tenía que mirar una frase en la pantalla, como la frase: "Hola, ¿cómo estás?", y luego intentar pronunciar esa frase en silencio. "Esto nos proporcionó el mapa neuronal que se genera al leer e intentar replicar una frase" explican los investigadores.
Otro de los aspectos más destacados es que en modelos anteriores la descodificación sufría una latencia de unos ocho segundos, pero ahora el sistema es capaz de captar la intención en un segundo, haciendo que se reproduzca el habla prácticamente en tiempo real.
La única pega a este logro, es que todavía este tipo de tecnología sigue siendo muy invasiva en el sentido de que tiene que tener una máquina conectada y que no puedes salir a la calle con él, por ejemplo, pero poco a poco los investigadores seguirán trabajando en este aspecto.
Fuente: https://www.eleconomista.es/tecnologia/noticias/13296625/04/25/tras-20-anos-sin-voz-una-mujer-vuelve-a-hablar-gracias-a-la-ia-y-una-maquina-conectada-al-cerebro.html
... Mostrar más