Investigadores han logrado, por primera vez, traducir en tiempo real los pensamientos silenciosos gracias a un implante cerebral acoplado a una inteligencia artificial. Esta tecnología promete ofrecer una nueva forma de comunicación a las personas paralizadas. Sin embargo, plantea cuestiones cruciales sobre la privacidad, el consentimiento y la seguridad mental.
Leer los pensamientos, un poder que se pensaba estaba reservado para algunos superhéroes de ficción, ya es posible en humanos.
Las interfaces neuronales directas (o interfaces cerebro-máquina, ICM) han progresado a pasos agigantados desde hace varios años y ahora es completamente real: un estudio realizado en la Universidad de Stanford, en Estados Unidos, ha logrado recientemente decodificar directamente el habla interior, es decir, lo que una persona piensa decir, sin gesto ni sonido.
Las ICM funcionan conectando el sistema nervioso de una persona a dispositivos capaces de interpretar su actividad cerebral, permitiéndole realizar acciones —como usar una computadora o mover una prótesis de mano— únicamente con sus pensamientos. Esto ofrece a las personas discapacitadas el medio de recuperar cierta independencia.
Los investigadores habían logrado hasta ahora dar la palabra a personas incapaces de hablar captando señales en la corteza motora cerebral mientras intentaban mover la boca, la lengua, los labios y las cuerdas vocales. Ahora, los científicos de Stanford pueden prescindir de cualquier intento de habla física.
"Si pudiéramos decodificar el lenguaje interior, esto podría evitarnos el esfuerzo físico", declaró al New York Times la neurocientífica Erin Kunz de Stanford, autora principal del nuevo estudio. "Sería menos fatigante, y los usuarios podrían usar el sistema durante más tiempo", dijo.
Publicados el 21 de agosto en la revista Cell, estos últimos descubrimientos podrían permitir comunicarse aún más fácilmente a quienes no pueden hablar. El sistema ya muestra un 74% de precisión en tiempo real, un rendimiento inédito para una tecnología de este tipo.
Pero decodificar la voz interior no está exento de riesgos. Durante las pruebas, el implante a veces captó señales inesperadas, lo que requirió la implementación de una contraseña mental para proteger ciertos pensamientos.
Decodificadas en tiempo real
"Es la primera vez que logramos entender cómo se ve la actividad cerebral cuando simplemente piensas en hablar", explica Erin Kunz.
"Gracias a grabaciones multi-unidades de cuatro participantes, constatamos que el discurso interior está sólidamente representado en la corteza motora y que las frases imaginadas pueden ser decodificadas en tiempo real", afirmó.
Para lograr tal resultado, el equipo de investigación implantó microelectrodos en la corteza motora (la parte del cerebro responsable del habla), con el fin de registrar las señales neuronales.
Los participantes que hicieron parte en este estudio estaban gravemente paralizados, ya sea por esclerosis lateral amiotrófica (ELA, también llamada enfermedad de Charcot), o como consecuencia de un accidente cerebrovascular (ACV).
Los investigadores les pidieron que intentaran hablar o imaginar pronunciar una serie de palabras. Estas dos acciones activaron zonas cerebrales superpuestas y suscitaron tipos de actividad cerebral similares.
Modelos de inteligencia artificial (IA) fueron luego entrenados para reconocer fonemas (unidades básicas del lenguaje), después traducir estas señales en palabras, luego en frases en las que los participantes pensaban, pero no pronunciaban en voz alta. Durante una demostración, el chip cerebral pudo traducir las frases imaginadas con una tasa de precisión de hasta 74%.
El profesor adjunto de neurocirugía en Stanford, Frank Willett, declaró al Financial Times que la decodificación era lo suficientemente confiable para demostrar que con las mejoras en el hardware del implante y el software de reconocimiento, "los futuros sistemas podrían restaurar un habla fluida, rápida y cómoda únicamente a través del habla interior".
Una contraseña para proteger ciertos pensamientos privados
Este avance emocionante viene acompañado de problemáticas relacionadas con la confidencialidad. El estudio permitió descubrir que la ICM también podía captar palabras interiores que los participantes no habían sido invitados a imaginar pronunciar, planteando la cuestión de las filtraciones de pensamientos privados contra la voluntad del usuario.
"Esto significa que la frontera entre pensamiento privado y pensamiento público es quizás más difusa de lo que se supone", advierte la profesora iraní-americana Nita Farahany, especialista en las repercusiones de las nuevas tecnologías en la sociedad, el derecho y la ética, en una entrevista concedida a NPR.
"Cuanto más hacemos avanzar esta investigación, más transparente se vuelve nuestro cerebro, y debemos reconocer que esta era de transparencia cerebral es realmente una frontera completamente nueva para nosotros", continúa.
Esta porosidad entre pensamiento voluntario y pensamiento íntimo alimenta así el temor de una lectura de pensamientos no consentida. La cuestión ya no es solo médica, sino también social: ¿cómo garantizar que la mente de cada uno siga siendo un santuario inviolable?
En aras de proteger la privacidad, los investigadores de Stanford han imaginado un sistema de protección por contraseña que impide a la ICM decodificar el habla interior, a menos que el usuario la desbloquee.
En el estudio, la frase "chitty chitty bang bang" como contraseña logró impedir la decodificación involuntaria de pensamientos privados con una tasa de éxito de más del 98%. Una medida técnica que recuerda que la seguridad cognitiva se convierte en un desafío central, al igual que la ciberseguridad.
Dado el desarrollo de este sistema de protección por contraseña, Cohen Marcus Lionel Brown, bioético de la Universidad de Wollongong, estima en el New York Times que "este estudio representa un paso en la dirección correcta, desde un punto de vista ético". Según él, "daría a los pacientes aún más poder para decidir qué información desean compartir y cuándo."
En los balbuceos, ya surgen temores
En una entrevista previa a NPR, en marzo de 2024, Nita Farahany, autora de Battle for your Brain, evocaba el auge de las ICM y declaraba sobre el cerebro: "Es nuestro órgano más sensible. Abrirlo al resto del mundo transforma profundamente nuestra humanidad y nuestras relaciones con los demás".
Por su parte, Evelina Fedorenko, neurocientífica cognitiva del MIT, que no participó en la investigación, recuerda, también en el New York Times, que gran parte del pensamiento humano no es verbal. "Lo que están registrando es en gran medida palabrería", estima, evocando el pensamiento espontáneo y no estructurado.
Erin Kunz, la autora principal del estudio, matiza afirmando que el estado actual del conocimiento no permite a los pacientes mantener conversaciones explotando su habla interior. "Estos resultados constituyen ante todo una primera prueba de concepto", dice.
El entusiasmo y las fantasías ante tal estudio deben mantenerse moderados. En esta etapa, el vocabulario sigue siendo limitado, la precisión está lejos de ser perfecta, y la implantación sigue siendo invasiva.
El equipamiento requiere un entrenamiento largo y ajustes constantes. También, antes de una difusión clínica a gran escala, será necesario mejorar tanto los algoritmos como las interfaces de hardware y las condiciones de implantación, lo que, según los investigadores, debería tomar varios años más.
Estos progresos se acompañan sin embargo de un debate candente: el de los "neuroderechos", un conjunto de derechos emergentes que buscan proteger la vida mental contra toda intrusión. En otras palabras, ¿deberá nuestra "seguridad mental" ser definida y protegida en algunos años?
Al hacer la promesa de devolver una voz a quienes han sido privados de ella, este avance también dibuja los contornos de un futuro inédito en el que, incluso, aunque sean deseados, los silencios hablan.
Este artículo es una adaptación de su original en francés
Compartir esta nota