En How to Do Things with Words (1962), el filósofo británico John L. Austin cambió radicalmente la visión tradicional del lenguaje al afirmar que no solo usamos palabras para describir el mundo, sino también para actuar sobre él. A través de su teoría de los actos de habla —locutivos (lo que se dice), ilocutivos (lo que se persigue al decirlo), y perlocutivos (los efectos que se provocan)—, Austin reveló que enunciar es también ejecutar acciones sociales. Esta perspectiva se vuelve especialmente relevante ante el auge de la Inteligencia Artificial Generativa (IAG), que produce enunciados complejos capaces de simular estas funciones del lenguaje.
En contextos académicos, los actos de habla son fundamentales. Cuando un docente afirma: “Tienes que revisar esta parte del ensayo”, emite una sugerencia o corrección que persigue una ilocución, es decir, una intencionalidad. Si el estudiante lo acepta y modifica su trabajo, se genera un efecto perlocutivo. Otro ejemplo: en una defensa de tesis, cuando el jurado dice “La tesis ha sido aprobada”, se ejecuta un acto performativo que tiene consecuencias reales: se gradúa y el título se le otorga.
La IAG puede reproducir estos mismos enunciados. Puede decir: “Felicidades, has aprobado tu examen” o “Te recomiendo leer a Foucault para reforzar tu argumento”. Empero, como advirtió Austin, para que un acto de habla sea efectivo, debe cumplir ciertas condiciones, entre ellas la autoridad del emisor y la adecuación al contexto. Una IAG carece de autonomía, intención y legitimidad institucional, por lo que sus actos —aunque lingüísticamente correctos— pueden ser considerados fallidos desde el punto de vista ilocutivo.
No obstante, los actos perlocutivos de la IAG son innegables. Un mensaje generado por IA puede motivar a un estudiante, aclararle conceptos o, todo lo contrario, puede incluso confundirlo y desinformarlo. Cuando ChatGPT explica qué es el estructuralismo o formula una crítica literaria, puede influir emocional e intelectualmente en quien lo lee. Es una de esas formas en que el lenguaje hace cosas, aunque no desde una intención consciente.
Esta diferencia entre simular y realizar es clave. Como subraya John Searle (1969), “el comportamiento verbal puede ser idéntico, pero si no hay intencionalidad, no hay verdadero acto de habla”. La IAG no promete, aunque diga “Te prometo que esto funciona”. No ordena, aunque diga “Haz clic aquí, ahora”.
La teoría de Austin ofrece entonces una herramienta valiosa para delimitar el alcance del lenguaje artificial. Aunque la IAG puede imitar la forma y provocar efectos, no cumple con los requisitos pragmáticos y contextuales que hacen del lenguaje humano un instrumento de acción efectiva. En el mundo académico, donde cada palabra tiene un peso institucional y afectivo, esta distinción es crucial. (CONTINUARÁ)
Compartir esta nota