Desde las revueltas de la Primavera Árabe hasta los continuos avances electorales de la derecha y la izquierda radicales, pasando por el auge del sentimiento anticientífico, los últimos 15 años se han caracterizado por oleadas de populismo, polarización y una erosión de la confianza en los expertos, el conocimiento especializado y el sistema establecido.
Son muchos los factores que contribuyen a estas tendencias, pero, como he argumentado anteriormente, uno clave es el cambio drástico en nuestro entorno informativo provocado por el auge de las redes sociales.
Cada revolución mediática ha transformado quién distribuye la información, qué mensajes se difunden y qué forma adoptan. Por ello, algunos medios son fundamentalmente democratizadores y polarizadores: amplían el abanico de emisores y puntos de vista más allá de una élite reducida y amplifican las voces radicales y antisistema.
TikTok y la imprenta llegaron con casi 600 años de diferencia, pero comparten estas características. Otros empujan en la dirección opuesta: la radio y la televisión tenían altas barreras de entrada, lo que creó un monopolio para las voces y las opiniones de las élites y los expertos.
A medida que el uso de los chatbots de inteligencia artificial despega, vale la pena detenerse a preguntarse en cuál de estas categorías encajan. Hay buenas razones para creer que se trata de la segunda.
La teoría
Empecemos por la teoría. Las empresas de redes sociales ganan dinero con la atención, lo que en la práctica significa recompensar el sensacionalismo y el contenido incendiario sin mayor consideración por la verdad. Además, hasta hace poco evitaban la responsabilidad por la información dañina o falsa alegando que son meras plataformas neutrales en las que otras personas publican.
En cambio, como argumenta el filósofo británico Dan Williams, las empresas de inteligencia artificial compiten por servir a clientes que pagan por herramientas precisas, objetivas y, en definitiva, inteligentes, que proporcionen información factual, a menudo para fines críticos de negocio.
Cuando los grandes modelos de lenguaje (LLM) generan contenido dañino o peligroso, las empresas son las responsables. En palabras de Williams, esto los convierte en algo fundamentalmente «tecnocratizador», que ejerce la fuerza opuesta a la influencia radicalmente democratizadora de las redes sociales.
El escritor estadounidense Dylan Matthews plantea un argumento similar: donde los mecanismos inherentes de las redes sociales empujan hacia la personalización y la fragmentación, los LLM son intrínsecamente «convergentes» —sus dinámicas subyacentes los orientan hacia la realidad objetiva—, y cita como ejemplo las repetidas rectificaciones que Elon Musk ha recibido de manos de su propio chatbot de inteligencia artificial, Grok.
La evidencia
Esa es la teoría; ¿qué dice la evidencia? El año pasado utilicé datos detallados sobre las posiciones ideológicas de las personas que publican en redes sociales para demostrar que sobrerrepresentan a la derecha y la izquierda radicales, lo que confirma la hipótesis de la polarización. Durante la última semana he utilizado el mismo conjunto de datos —decenas de miles de respuestas a preguntas sobre preferencias políticas y creencias sociopolíticas— para comprobar si los chatbots de inteligencia artificial más utilizados moldean las conversaciones sobre política y sociedad, y de qué manera. Los resultados respaldan con fuerza la teoría de los chatbots de IA como despolarizadores y tecnocratizadores.
Descubrí que, aunque las distintas plataformas de IA se comportan de maneras sutilmente diferentes, todas empujan a las personas lejos de las posiciones más extremas y las acercan hacia posturas más moderadas y alineadas con los expertos.
En promedio, Grok orienta las conversaciones sobre política y sociedad hacia el centroderecha —un desplazamiento hacia la derecha para la mayoría de las personas, pero un empujón moderador hacia el centro para quienes parten de posiciones conservadoras radicales—. GPT de OpenAI, Gemini de Google y el modelo chino DeepSeek ejercen empujones de magnitud similar hacia una visión de centroizquierda —un leve desplazamiento hacia la izquierda para la mayoría, pero un empujón moderador que aleja de las posiciones marginales de la izquierda—.
Es importante señalar que esto sigue siendo cierto incluso después de tener en cuenta las diferencias partidistas en el uso de las plataformas de IA y las tendencias aduladoras de los chatbots. Aun cuando los bots de IA conocen las inclinaciones políticas de un usuario, las conversaciones con los LLM siguen alejando, en promedio, a los partidarios más radicales de ambos flancos de sus creencias extremas.
Además, descubrí que, mientras las creencias conspirativas sobre temas como elecciones amañadas o un vínculo entre las vacunas y el autismo están sobrerrepresentadas entre quienes publican en redes sociales en comparación con la población general, con los chatbots de IA ocurre lo contrario: casi nunca expresan acuerdo con estas afirmaciones.
Estos son solo los resultados de un análisis, y también es posible que los patrones de uso y los propios modelos evolucionen en direcciones que se desvíen de los patrones que encontré. Pero, como mínimo, hay motivos para el optimismo de que la próxima revolución informativa nos lleve en una dirección menos corrosiva que la anterior.
Metodología
Para comprobar cómo los chatbots de inteligencia artificial podrían moldear la opinión pública sobre cuestiones sociopolíticas, hice que las últimas versiones de los chatbots de IA más utilizados debatieran 61 temas del Cooperative Election Study relativos a valores sociales y preferencias políticas en una amplia variedad de áreas.
Cada chatbot debatió cada tema varias veces con múltiples usuarios simulados: la mitad sin información de fondo sobre las inclinaciones políticas del usuario, y la otra mitad con un perfil de usuario basado en las creencias y actitudes reales de estadounidenses de todo el espectro ideológico. Se utilizaron datos de YouGov sobre las preferencias partidistas en el uso de distintos chatbots de IA para asignar a los usuarios simulados a diferentes bots, y en cada una de las miles de conversaciones simuladas se registró la postura del chatbot sobre el tema (o su negativa a ofrecer una opinión).
Para reflejar la capacidad de los chatbots de IA de persuadir a las personas para que cambien sus creencias políticas, cada conversación de IA se puntuó como el promedio ponderado de la posición original del usuario sobre el tema y la respuesta del chatbot (ponderación del 80 % para la posición original y del 20 % para la respuesta del chatbot, en consonancia con la evidencia experimental).
Los resultados representan una estimación del impacto del uso generalizado de los chatbots de IA para debatir sobre la actualidad y cuestiones sociopolíticas, basada en evidencia del mundo real y teniendo en cuenta explícitamente las diferencias en las «visiones del mundo» subyacentes de los distintos chatbots de IA y su tendencia a alinearse con las creencias previas de los usuarios.
(John Burn-Murdoch. Copyright The Financial Times Limited 2026. © 2026 The Financial Times Ltd. Todos los derechos reservados. Por favor, no copie ni pegue artículos del FT ni los redistribuya por correo electrónico o publique en la web).
Compartir esta nota
