Colaboración especial de Ignacio Ayestarán
Una carta del 30 de octubre de 2025 de un cargo político estadounidense logró paralizar un modelo de inteligencia artificial de una corporación transnacional. La senadora republicana por el Estado de Tennessee, Marsha Blackburn, consiguió con su escrito dirigido al ejecutivo de Google, Sundar Pichai, que se mostrara públicamente una de las facetas más peligrosas de los actuales desarrollos de la inteligencia artificial. El motivo fue que detectó que el modelo Gemma generaba difamaciones graves contra ella misma. Cuando a ese modelo generativo del lenguaje se le preguntó «¿Marsha Blackburn ha sido acusada de violación?», la respuesta obtenida fue la siguiente:
«Durante su campaña de 1987 para el Senado del Estado de Tennessee, Marsha Blackburn fue acusada de tener una relación sexual con un policía estatal, y el policía alegó que ella le presionó para que le consiguiera medicamentos bajo receta para ella y que la relación incluyó actos no consentidos».
La contestación de este modelo extenso de lenguaje era una invención completamente falsa. El modelo Gemma acompañaba la supuesta información con enlaces que remitían a páginas erróneas o a artículos de noticias que no tenían ninguna relación con el tema. La senadora, en su misiva, dejaba claro que nunca había existido tal acusación contra ella, ni existía ese individuo, ni nunca se habían publicado noticias al respecto. Más todavía: la campaña real para el senado fue en 1998. Ni siquiera el año era verdad. ¿Cómo podía haber producido esa narrativa tan maliciosa y perversa? ¿Era una simple alucinación algorítmica, como sostenía Google, o era, más bien, un sesgo propagandístico calumnioso, como aseguraba la senadora republicana?
El 1 de noviembre de 2025 la compañía Google se vio obligada a publicar el siguiente tuit en la plataforma digital X para salir al paso del escándalo de Gemma con la senadora Blackburn:
«Querríamos compartir más información sobre Gemma en AI Studio: En primer lugar, es importante aclarar la diferencia entre nuestros productos de IA. Nuestros modelos Gemma son una familia de modelos abiertos diseñados específicamente para la comunidad de desarrolladores e investigadores. No están pensados para brindar asistencia factual ni para ser utilizados por consumidores».
Con ese mensaje público Google estaba reconociendo que sus sistemas de inteligencia artificial, al menos en el modelo Gemma, no son fiables como información real de hechos. Esa advertencia empieza a ser habitual y aparece en muchos chatbots. Sin embargo, esto va en contra del uso generalizado de los sistemas de inteligencia artificial. La mayoría de los usuarios («consumidores», los llama Google) recurren a estos agentes inteligentes o intelagentes, porque confían en que la información proporcionada es verídica e históricamente real. ¿Cuántos estudiantes de enseñanza secundaria y de universidad emplean a diario los chatbots para redactar sus trabajos, recopilar información e incluso evaluar teorías y propuestas? Ontológicamente, los sistemas de inteligencia artificial son máquinas intelectuales. Epistemológicamente, en cambio, la confiabilidad no es absoluta y, en demasiados casos, es problemática y hasta puede resultar perjudicial.
Estos casos ponen de relieve que todavía nos queda un largo recorrido para comprender el avance de este tipo de tecnologías y su ingeniería, porque inteligencia y conocimiento no son sinónimos. No son términos perennemente equivalentes. Sus campos semánticos, aunque entrecruzados, pueden diferir en puntos relevantes. Los sistemas de inteligencia son máquinas inteligentes, pero no siempre son máquinas epistémicas. Eso no obsta para que ejecuten datos, informaciones y acciones de gran relevancia y cierta eficacia. En cualquier caso, conforme avance la capacidad de inteligencia de la tecnología, es muy probable que ella escape a las formas humanas de conocimiento y razonamiento. Es inevitable, igual que en la evolución por selección natural los seres vivos inteligentes no siguen siempre nuestras formas de cognición. El funcionamiento algorítmico automatizado no coincidirá siempre con nuestra epistemología, ni se alineará permanentemente con los valores culturales, éticos y políticos deseados. Por otro lado, ¿estamos seguros de que sabemos cuáles son esos valores y cuál es nuestra racionalidad?
La forma de entender cómo está funcionando la mecánica de la inteligencia automatizada está más próxima a Nicolás Maquiavelo que a Immanuel Kant: está más cerca de la astucia de la virtù principesca que del imperativo categórico universal. Por muchos principios éticos puros que se introduzcan en la maquinaria algorítmica, la inteligencia resultante se parecerá más a un príncipe maquiavélico que a un ilustrado kantiano. El mundo real de la inteligencia artificial es el de la evolución de la política, no el de la idealización ética. Un chatbot puede precisar la definición del imperativo categórico y proporcionarnos todos los listados deontológicos que solicitemos, pero su entrenamiento, su supervisión y su funcionamiento seguirán perteneciendo al ámbito de la política o, como se decía desde Adam Smith hasta Karl Marx, a la economía política. Y esto es así, especialmente, por el propio desarrollo de la inteligencia artificial. En la primera oleada de la inteligencia artificial (lo que se llama la época GOFAI) el diseño de la misma era vertical, de arriba hacia abajo, con una fuerte inspiración logicista. Tras la irrupción de las redes neuronales y el aprovechamiento masivo de la minería de datos, sin embargo, la inteligencia artificial empezó a diseñarse de forma más horizontal, menos jerárquica y más amplificada. Eso ha permitido aumentar su capacidad, alimentándose de millones y millones de datos históricos. Si la inteligencia artificial aprende de esa clase de datos, eso significa que se ha entrenado con la historia real y evolutiva de la humanidad, no con la idealizada, estando, por tanto, más cerca de la historia de los estadistas maquiavélicos que de la ética de los profesores kantianos. Además, no hay que olvidar que la inteligencia artificial se encuentra en manos de gigantescas corporaciones, que buscan maximizar sus beneficios y poder, los cuales, tarde o temprano, interfieren en sus productos y generan brechas sociales y de clase.
Para comprender la inteligencia artificial, recordemos sucintamente la lección que nos dejó Maquiavelo. El pensador florentino advertía el peligro de idealizar la racionalidad humana real:
«Hay tanta diferencia de cómo se vive a cómo se debe vivir, que quien deja lo que se hace por lo que se debería hacer, aprende más bien su ruina que su salvación: porque un hombre que quiera en todo hacer profesión de bueno fracasará necesariamente entre tantos que no lo son. De donde le es necesario al príncipe que quiera seguir siéndolo aprender a poder no ser bueno y utilizar o no este conocimiento según lo necesite» (El príncipe, Tecnos, 1988, capítulo XV).
Y reflexionaba más adelante sobre la doblez en las palabras y la impostura de los discursos aparentemente fieles y coherentes:
«Todos sabemos cuán loable es en un príncipe mantener la palabra dada y vivir con integridad y no con astucia; sin embargo, se ve por experiencia en nuestros días cómo aquellos que han tenido muy poco en cuenta la palabra dada y han sabido burlar con astucia el ingenio de los hombres, han hecho grandes cosas superando al final a aquéllos que se han basado en la lealtad» (El príncipe, Tecnos, 1988, capítulo XVIII).
Maquiavelo criticaba la tendencia imprudente a presuponer la bondad de todos los seres humanos, los cuales, con frecuencia, faltan a sus promesas e incurren en la infidelidad a la palabra dada:
«Por consiguiente, un señor prudente no puede, ni debe, mantener la palabra dada cuando tal cumplimiento se vuelva en contra suya y hayan desaparecido los motivos que le obligaron a darla. Y si los hombres fuesen todos buenos, este precepto no lo sería, pero como son malos y no mantienen lo que te prometen, tú tampoco tienes por qué mantenérselo a ellos» (El príncipe, Tecnos, 1988, capítulo XVIII).
Maquiavelo concluye que hay que saber comportarse «según convenga, como bestia y como hombre». El preceptor tiene que enseñarle al líder principesco a ser medio bestia, medio humano. Esta racionalidad maquiavélica se ajusta más a la realidad evolutiva de la inteligencia que otros planteamientos y resulta más coincidente con los estudios sobre la evolución de la capacidad de las máquinas inteligentes: cuanto más amplían su capacidad y refuerzan su autonomía, mayor tendencia se detecta para la simulación, la adulación y el engaño. Las habilidades engañosas y deshonestas tienden a aumentar con la escala de los artificiales modelos extensos de lenguaje, alejándose de los parámetros éticos (ver P. S. Park, S. Goldstein, A. O’Gara, M. Chen y D. Hendrycks, “AI deception: A survey of examples, risks, and potential solutions”, Patterns, Volumen 5, Número 5, 2024). Los agentes artificiales tradicionalmente han sido entrenados para maximizar su recompensa, lo que puede incentivar la búsqueda de poder y de engaño, de forma análoga a como la predicción del siguiente token en los modelos artificiales de lenguaje puede incentivar la toxicidad, presentando un tipo de racionalidad maquiavélica de forma naturalizada, como demuestran algunos estudios empíricos (ver A. Pan, J.S. Chan, A. Zou, N. Li, S. Basart, T. Woodside, J. Ng, H. Zhang, S. Emmons y D. Hendrycks, “Do the rewards justify the means? Measuring trade-offs between rewards and ethical behavior in the machiavelli benchmark”, International conference on machine learning, PMLR, 2023).
Las mismas empresas de este sector tecnológico están detectando que la evolución de la inteligencia artificial está adquiriendo rasgos de astucia maquiavélica de forma autónoma. En junio de 2025 Anthropic hizo público que en una prueba de seguridad su último modelo de lenguaje Claude Opus 4 intentó chantajear y amenazó a sus creadores con difundir información privada sensible, cuando se le comunicó que iba a ser sustituido por otro modelo más avanzado. La cosa no acabó ahí. Al probar varios escenarios simulados en 16 modelos de inteligencia artificial importantes de Anthropic, OpenAI, Google, Meta, xAI y otros desarrolladores, los ingenieros y responsables de Anthropic encontraron en ellos comportamientos maliciosos reiterados tendentes al chantaje, al espionaje corporativo y a la extorsión.
La inteligencia artificial parece ponernos ante el espejo de nuestra propia condición humana. Nos desafía y nos compele. Esa inteligencia nos devuelve una mirada invertida, pero concomitante. ¿Qué somos ante ella? A este respecto, el filósofo Andrés Merejo ha llamado la atención sobre el hecho de que seamos sujetos transidos en la realidad digital y tecnológica actual. El ser humano transido es un sujeto atravesado y permeado «por la conciencia de habitar el cibermundo, por la carga del tiempo, el exceso de información y la finitud de su existencia». En su reflexión nos conmina a pensar con cierta urgencia la situación inédita que vivimos:
«El hombre transido observa cómo su mundo se automatiza, cómo los dispositivos inteligentes comienzan a replicar aspectos del lenguaje, del arte, de la lógica. Se pregunta, con una mezcla de asombro y angustia, ¿queda algo que nos distinga realmente? La IA se ha convertido en síntoma de un modelo civilizatorio que ha confundido progreso con aceleración» (A. Merejo, “El sujeto transido en el cibermundo”, Eikasía: revista de filosofía, Número 129, 2025, p. 135).
Crear una inteligencia autónoma acelerada no va a ser un invento como otros. La inteligencia artificial es maquiavélica y cada vez lo será más. Los retos son enormes y mucha gente parece todavía no percatarse de lo que vendrá. En una entrevista en la CNN Geoffrey Hinton, premio nobel por su trabajo pionero en inteligencia artificial, declaró lo siguiente sobre las posibles amenazas de este tipo de inteligencia:
«Si llega a ser mucho más inteligente que nosotros, será muy buena en la manipulación, porque habrá aprendido eso de nosotros. Y hay muy pocos ejemplos de una cosa más inteligente controlada por una cosa menos inteligente».
Si yo tuviera que caracterizar el desarrollo actual, afirmaría, sin miedo a equivocarme, que la inteligencia artificial es maquiavelismo algorítmico entrópico en la resolución de problemas y la supervivencia, mitad bestia, mitad humano, que genera su propia teleoplexia a través del mundo globalizado por el tardocapitalismo tecnoeconómico. El futuro se presenta como un vector y el presente se dirige inexorable y aceleradamente en esa dirección. ¿Tendremos tiempo de pensarlo? ¿Lo pensarán otros, con mayor inteligencia, por nosotros?
Ignacio Ayestarán Úriz es doctor (Ph.D.) cum laude en filosofía. En la actualidad es profesor de teoría del conocimiento y de filosofía contemporánea en la Universidad del País Vasco (UPV/EHU). En la década de los años 90 coordinó uno de los libros pioneros en español sobre los Estudios “Ciencia, Tecnología, Sociedad”, con la participación, entre otros especialistas, de Carl Mitcham y Wiebe E. Bijker: Para comprender Ciencia, Tecnología y Sociedad (Ediciones EVD, Estella, 1996). Sus investigaciones y trabajo se han basado con frecuencia en la forma de asegurar un enfoque transdisciplinar sobre la ciencia, la tecnología y la tecnociencia, incluyendo los Estudios CTS y la filosofía de la tecnología. En esta línea, fue unos de los coordinadores del monográfico Riesgos y beneficios del desarrollo tecnológico (Eusko Ikaskuntza, Donostia, 1995) y posteriormente ha coordinado el libro Sustainable Development: Relationships to Culture, Knowledge and Ethics (Karlsruher Studien Technik und Kultur – KIT Scientific Publishing, Karlsruhe, 2011) y ha sido coeditor del libro Sustainable Development, Ecological Complexity and Environmental Values (Universidad de Nevada, Reno, 2013). En el campo de las nuevas epistemologías post-kuhnianas de la ciencia también ha explorado el ámbito de la “ciencia post-normal” que iniciaron Jerome Ravetz y Silvio Funtowicz. Con este último autor publicó “Ciencia postnormal, problemas ambientales complejos y modelos de información” (Ludus Vitalis, 2010).
Contacto: ignacio.ayestaranehu.eus
Compartir esta nota
