La Universidad Tecnológica de Sídney, Australia, informó que un grupo de sus investigadores desarrollaron un sistema no invasivo que convierte los pensamientos de una persona en palabras escritas.
Tal tecnología podrá ser utilizada para ayudar a personas que hayan perdido el habla a causa de alguna enfermedad, como un derrame cerebral. También podría emplearse en aplicaciones robóticas basadas en la comunicación entre humanos y máquinas.
Los investigadores de la Universidad Tecnológica de Sídney perfeccionaron un programa basado en la inteligencia artificial (IA), denominado DeWave, diseñado efectivamente para convertir las ondas cerebrales de las personas en palabras y oraciones.
Colocaron una gorra a los participantes que leyeron en silencio un texto mientras se les registraba la actividad eléctrica de sus cerebros mediante electroencefalogramas (EEG).
El estudio fue recientemente publicado en el servicio de preimpresión arXiv.
Una vez que el DeWave comprendió las señales cerebrales, se procedió a vincularlas con un modelo de lenguaje denominado LLM (por sus siglas en inglés), similar al que usa la aplicación ChatGPT.
El DeWave fue entrenado luego de observar una gran cantidad de ejemplos en los que las ondas cerebrales coinciden con oraciones específicas. Posteriormente, tanto el DeWave como el LLM fueron entrenados de manera conjunta, con la finalidad de que se perfeccionara la escritura de las oraciones basadas en los datos del EEG.
La precisión de los resultados ronda actualmente el 40 % en la escala BLEU-1, que compara la similitud de la traducción automática con un conjunto de traducciones de referencia de alta calidad.
No obstante, los científicos esperan mejorar esta tasa al nivel de los programas convencionales de traducción de idiomas o reconocimiento de voz, que es cercano al 90%.
El estudio de la universidad australiana, que fue presentado en la conferencia NeurIPS en Nueva Orleans (Luisiana, EEUU), tiene como responsables a cinco científicos de origen asiático: Yiqun Duan , Jinzhao Zhou , Zhen Wang , Yu-Kai Wang y Chin-Teng Lin.