Este artículo constituye un análisis que cumple la doble función de testimonio intelectual y metodológico. Su propósito es ofrecer el sustento teórico-conceptual de la reflexión y la puesta en escena de los autores y nociones que los próximos artículos omiten al adoptar una sobriedad referencial, regida por la premisa de que “lo que es verdaderamente fundamental, por el mero hecho de serlo, nunca puede ser puesto, sino que debe ser siempre presupuesto” (Gustavo Zagrebelsky).

La simbiosis impura que realizan las próximas entregas omite deliberadamente la mención explícita de autores, asegurando el rigor conceptual sin desviar el foco analítico hacia las digresiones de fuentes. Sirva, pues, el presente artículo como una precuela teórica que testimonia los autores y las ideas que han servido de fuente de inspiración para el andamiaje conceptual de las diez tesis sobre los riesgos y las oportunidades de la inteligencia artificial.}

La búsqueda de un interlocutor y el desdoblamiento inesperado

El inicio de la producción intelectual requiere un espacio de soledad, un monólogo interno que active la creatividad, aunque más adelante suele necesitar el contraste externo, la interacción con un interlocutor idóneo que ayude a pulir la conceptualización o desmontar los circunloquios de la propia cabeza. Pero no siempre contamos con el tiempo o las circunstancias para interactuar con otro individuo que comparta el marco conceptual de múltiples temas.

La irrupción de las tecnologías de la inteligencia artificial (IA) ha supuesto un cambio de paradigma, por su potencial uso como herramienta de apoyo para lograr aquella retroalimentación crítica. Esta ofrece la oportunidad de materializar lo que Hannah Arendt describía como el “diálogo de dos en uno” de origen socrático que posibilita la reflexión profunda. La tecnología se convierte, de este modo, en una especie de mecanismo de desdoblamiento que permite escuchar y pulir el propio pensamiento.

El temor a la sustitución y el imperativo ético

El entusiasmo inicial de este descubrimiento se mezcla con una profunda ansiedad moral, esto es, el temor de que esta herramienta tecnológica, más que ayudar a pulir el pensamiento propio, termine por sustituirlo, convirtiéndonos en meros receptores de respuestas prefabricadas.

Tal preocupación tiene su origen en las vivencias de las aulas universitarias, pues éstas constituyen un laboratorio social idóneo para apreciar en tiempo real cómo la mala utilización de la IA puede convertirse en una huida al pensamiento crítico. Cada vez resulta más frecuente encontrar estudiantes que, por un uso pasivo de esta herramienta, son incapaces de realizar una explicación coherente del contenido de los trabajos que entregan por escrito.

Lo observado en las aulas es un síntoma de un problema de mayor calado y profundidad que enfatiza la necesidad de una ética de uso responsable que evoca un fuerte sentido aristotélico. Esta exige entablar con la IA una conversación constructiva, no pasiva: dirigir la interacción y someter cada análisis a un estricto proceso de revisión, como prerrequisito indispensable para tratar de evitar la atrofia cognitiva y la generación de conocimiento inorgánico.

Esta exigencia moral se ancla rigurosamente en una concepción materialista del conocimiento. Si bien la mente comienza como una “tabula rasa” (John Locke), su contenido debe ser activamente adquirido a través de la experiencia y el esfuerzo. La delegación tecnológica traiciona este principio porque socava la capacidad de digerir ideas y articular argumentos. El individuo que cede su esfuerzo no solo corre el riesgo de cometer fraude intelectual al minar la base de su propia agencia moral, sino que, al invertir la relación entre el individuo y la máquina, se convierte él mismo en un objeto (Immanuel Kant).

El barco perdido y el reproche al fraude

Toda falta de digestión intelectual conlleva una desorientación profunda, un riesgo que puede provocar la atrofia del pensamiento creativo y de la capacidad crítica. El individuo que delega el esfuerzo de pensar corre el riesgo de quedar incapacitado para asimilar el conocimiento, el poder de las ideas y el propósito de sí mismo. Está condenado a terminar como un “barco perdido bajo cabellos de abras, lanzado por la tromba en el éter sin pájaro” (Arthur Rimbaud). La consecuencia moral de esta deriva es grave: al apropiarse de contenido no contextualizado ni producido por él, el agente comete un acto de fraude intelectual que debe ser reprochado.

Esto no significa que debamos demonizar la IA, sino aprender a usarla correctamente como herramienta de apoyo. La experiencia adquirida hasta ahora permite atestiguar que, en un contexto de diálogo constructivo, puede servir para afinar ideas en bruto y transparentar el pensamiento propio; pero es imperativo realizar constantes revisiones críticas para verificar la fiabilidad de la información y la presencia ineludible de la voz del autor.

Del miedo individual al riesgo colectivo

Los riesgos potenciales trascienden la esfera personal para proyectarse en lo social. Los sesgos algorítmicos afectan la construcción del pensamiento como producto social, ya que pueden reducir los individuos a “una amalgama deforme, como una unidad estadística sin atributos propios” (Isaiah Berlin), e inducir a la sociedad hacia el pensamiento único. Se advierte, entonces, la necesidad de extrapolar la crítica de Boaventura de Sousa Santos contra la hegemonía del saber científico, en la “ecología de los saberes”, al contexto de la ecología del conocimiento en la era de la IA.

La preocupación por que los algoritmos impongan un conocimiento uniformizado que reduzca la singularidad humana impone una mirada jurídica que dé respuesta a riesgos de alcance global. Una teoría interesante para abordarlo es el garantismo de Luigi Ferrajoli, ya que plantea el establecimiento de límites al poder que no se restringen al ámbito estatal, pues conciernen igual a los poderes privados. Esto supone, en última instancia, la necesidad de articular una respuesta institucional, revelando la insuficiencia de una perspectiva ética individual.

Por una reflexión de riesgos y oportunidades

La confluencia de los miedos y principios esbozados en el presente artículo constituye la materia prima del análisis conceptual sobre los riesgos y oportunidades de la IA. Esta tarea se aborda en diez tesis conceptuales distribuidas equitativamente en dos artículos y, en un cuarto, se utilizan estas ideas en la actualización de un decálogo universitario. El autor —como indicó la introducción— articulará en las próximas entregas una voz propia que extrapola e integra las nociones y teorías aquí esbozadas en una simbiosis impura de conocimientos presupuestos generada con IA, a partir de este artículo.

Félix Tena de Sosa

Abogado

Analista jurídico con estudios especializados en derecho constitucional y más de 15 años de experiencia en instituciones públicas y organizaciones no gubernamentales. Docente universitario de derecho constitucional, derechos humanos y filosofía del derecho. Apartidista, librepensador, socioliberal, moderado y escéptico.

Ver más