En los últimos meses se ha instalado en el debate público una idea tan seductora como equívoca: que la inteligencia artificial posee un lenguaje propio, una huella estilística inconfundible que delata su intervención desde las primeras líneas. Se habla de ritmo mecánico, de cadencia artificial, de una especie de coreografía lingüística que desnuda el origen no humano del texto. Sin embargo, esta afirmación, aunque intuitivamente atractiva, descansa sobre una premisa débil: no existe un lenguaje de la inteligencia artificial en sentido técnico, sino patrones de redacción que emergen cuando el usuario abdica de su rol crítico.

La inteligencia artificial —ya sea en plataformas como ChatGPT, Gemini o Grok— no produce un estilo homogéneo por naturaleza. Produce, más bien, lenguaje condicionado por la calidad de la instrucción, la precisión del requerimiento y, sobre todo, por la capacidad del usuario para dirigir, corregir y exigir. Cuando ese proceso de conducción intelectual está ausente, el resultado tiende a lo genérico, a lo predecible, a lo estilísticamente plano. Pero ese resultado no es una huella de la máquina: es la evidencia de una ausencia humana.

El verdadero problema, por tanto, no radica en la existencia de la inteligencia artificial, sino en la delegación acrítica del pensamiento. Aquí la preocupación es legítima y profundamente relevante. Cuando el usuario acepta sin cuestionar datos, interpretaciones o narrativas generadas por sistemas automatizados, se produce una erosión del ejercicio crítico que históricamente ha definido la racionalidad humana. No se trata de una sustitución tecnológica del pensamiento, sino de una renuncia voluntaria a ejercerlo.

Desde la perspectiva de la epistemología, el conocimiento no se reduce al resultado final, sino que implica un proceso de validación, contraste y justificación. La inteligencia artificial puede acelerar el acceso a la información, pero no sustituye ese proceso. Cuando se omite la verificación —como en el caso de datos económicos incorrectos o proyecciones asumidas como resultados— lo que falla no es la herramienta en sí, sino el uso que se hace de ella.

Es cierto que estos sistemas pueden incurrir en errores, imprecisiones o lo que técnicamente se conoce como «alucinaciones»: respuestas plausibles pero factualmente incorrectas. También es cierto que operan sobre ecosistemas de información donde determinadas fuentes —principalmente occidentales— tienen mayor peso estructural. Esto introduce sesgos, no necesariamente ideológicos en sentido estricto, pero sí contextuales. Sin embargo, de ahí a sostener que existe una manipulación deliberada o una voluntad de imponer relatos, hay un salto conceptual que no resiste un análisis riguroso.

La inteligencia artificial no tiene conciencia, ni intención, ni voluntad política. No «decide» favorecer narrativas ni «elige» justificar políticas públicas. Lo que hace es replicar patrones de información disponibles y construir respuestas coherentes en función de probabilidades. Cuando esas respuestas parecen justificar o defender posiciones, lo que observamos no es una intención, sino una estructura estadística interpretada erróneamente como voluntad.

En este contexto, la competencia entre plataformas —como la que se observa entre Grok y Gemini— introduce otro elemento de distorsión: el discurso sobre las fuentes. Es cierto que algunos modelos intentan ampliar el espectro informativo incluyendo medios de distintas orientaciones geopolíticas. Pero ningún sistema está libre de sesgos de selección, limitaciones de entrenamiento o condicionamientos de diseño. Pretender lo contrario es desconocer la naturaleza misma de estos modelos.

Por ello, el debate debe desplazarse del terreno tecnológico al terreno intelectual. La pregunta no es si la inteligencia artificial piensa —porque no lo hace—, sino si nosotros seguimos pensando cuando la utilizamos. La herramienta no sustituye la capacidad crítica; la pone a prueba. Y en ese examen, queda en evidencia quién utiliza la inteligencia artificial como instrumento de apoyo y quién la convierte en sustituto de su propio juicio.

En definitiva, la inteligencia artificial no representa una amenaza existencial para el pensamiento humano. Representa, más bien, un espejo incómodo. Un espejo que revela, con precisión implacable, el grado de rigor, disciplina y autonomía intelectual de quien la utiliza. El riesgo no es una humanidad sin pensamiento, sino una humanidad que, teniendo todas las herramientas para pensar mejor, decide hacerlo menos.

Si ese escenario llegara a materializarse, no sería responsabilidad de la tecnología, sino de la renuncia humana. Y en ese punto, el problema dejaría de ser técnico para convertirse, definitivamente, en civilizatorio.

José Manuel Jerez

Jurista – Politólogo

El autor es abogado, con dos Maestrías Summa Cum Laude, respectivamente, en Derecho Constitucional y Procesal Constitucional; Derecho Administrativo y Procesal Administrativo. Docente a nivel de posgrado en ambas especialidades. Licenciado en Lenguas Modernas. Postgrado en Diplomacia y Relaciones Internacionales. Maestrando en Ciencias Políticas y Políticas Públicas. Diplomado en Ciencia Política y Derecho Internacional, por la Universidad Complutense de Madrid, UCM.

Ver más