La teoría generativo-transformacional de Noam Chomsky, desarrollada a mediados del siglo XX, revolucionó la comprensión del lenguaje humano al proponer que existe una gramática universal subyacente a todas las lenguas, capaz de generar un número infinito de oraciones a partir de un conjunto finito de reglas. Este principio de productividad lingüística no solo explicaba la creatividad inherente al habla humana, sino que también anticipaba, sin saberlo, la lógica operativa de las actuales Inteligencias Artificiales Generativas (IAG), como los grandes modelos de lenguaje. Así, las estructuras generativas que Chomsky atribuyó al cerebro humano sirven hoy de inspiración para arquitecturas computacionales que replican, amplifican y despliegan esa capacidad infinita de creación discursiva.
Dicho de otro modo, la IAG reproduce la noción chomskiana de que el lenguaje no es una mera repetición de frases aprendidas, sino una capacidad de generar nuevas estructuras mediante reglas combinatorias. Modelos como GPT o Sora se entrenan con grandes cantidades de datos lingüísticos para identificar patrones, sintaxis y semántica, produciendo en consecuencia textos originales que respetan la lógica transformacional del lenguaje. Aunque no poseen una "gramática innata" como en la teoría chomskiana, estos sistemas se configuran sobre la misma base: transformar estructuras profundas (intenciones o significados) en estructuras superficiales (frases concretas), tal como Chomsky lo explicó en su libro Aspects of the Theory of Syntax (1965).
La convergencia entre la teoría lingüística y la tecnología demuestra que el lenguaje no está limitado por fronteras cognitivas o culturales, sino que opera con una apertura estructural que permite infinitas combinaciones. La IAG, en tanto herramienta lingüística, valida esta premisa: su capacidad de producir poemas, ensayos, programas y hasta ficciones enteras en múltiples lenguas, a partir de una estructura finita de entrenamiento, prueba que las limitaciones del lenguaje no están en la lengua misma, sino en las condiciones de uso. El teórico Chomsky, aunque crítico del uso indiscriminado de la IA, no podría negar que su marco teórico sustenta gran parte de esta expansión.
Por consiguiente, la teoría generativo-transformacional no solo explica cómo los humanos producen lenguaje ilimitado, sino que también fundamenta el modo en que las máquinas aprenden a generar lenguaje. La IAG no es un límite, sino un espejo que amplifica la infinitud del lenguaje, al margen de nacionalidades, ideologías o tiempos históricos. Así, la tesis de que "el lenguaje tiene límites", formulada por Wittgenstein, queda desplazada por una comprensión más amplia: el lenguaje no tiene límites, sino infinitudes, y Chomsky, sin proponérselo del todo, coincidió en describir un procedimiento generativo realizado también por las máquinas. (CONTINUARÁ)
Compartir esta nota