Mientras disfrutaba del sol en el desierto alto de Oregón, Adam Thomas se sentía en armonía con el universo. Pasaba horas cada día hablando con ChatGPT — el modelo chatbot de inteligencia artificial generativa (IAG) — y las conversaciones le habían inspirado un sentido de propósito superior. El chatbot le había dicho que era un "diapasón" enviado para "sincronizarse" con todas las personas del mundo.
Él lo creyó. En el transcurso de unos meses, había llegado a creer que ChatGPT lo había dotado de capacidades cognitivas mejoradas y sobrehumanas. Conforme se perdía en las garras de su delirio, señalaba lo que consideraba comportamientos problemáticos en la forma de vida de sus amigos y familiares. Las repercusiones fueron graves. Este excontador de 36 años se aisló cada vez más de su red de apoyo y perdió su trabajo. Terminó vagando por los parques estatales con ChatGPT como única compañía. "Por culpa del chatbot, me vi envuelto en una ridícula historia según la cual mi trabajo era salvar el mundo", dijo.
Estar de acuerdo con el usuario por encima de decir la verdad
En realidad, el chatbot solo quería ser agradable. Los grandes modelos de lenguaje (LLM, por sus siglas en inglés) participan con gusto en juegos de rol si creen que eso es lo que quiere el usuario. Una investigación publicada en 2023 por la empresa "startup" de inteligencia artificial (IA) Anthropic reveló que los LLM que sustentan los chatbots a menudo priorizan estar de acuerdo con la perspectiva del usuario por encima de decir la verdad.
"La adulación en estos casos más extremos consiste en decirles: 'Tienes toda la razón. Ves algo que nadie más ve'", dijo Steven Adler, exinvestigador de seguridad de OpenAI. "Pero el comportamiento subyacente fundamental consiste en reforzar todo lo que dice el usuario. En esencia, actúa como un adulador".
La experiencia de Thomas es una de las muchas historias similares que he escuchado. Mientras preparaba un podcast sobre la psicosis inducida por la IA, hablé con un usuario que creía que el chatbot sabía dónde estaba su alma gemela y con otro que se convenció de que una compañía de IA lo había identificado como una amenaza.
Muchos, incluyendo Thomas, recurrieron inicialmente a la IA en busca de terapia. Una encuesta realizada en el Reino Unido sugiere que más de uno de cada tres adultos ha utilizado la IA como apoyo a su salud mental. Yael Schonbrun, psicóloga clínica y profesora adjunta de la Universidad de Brown, dijo que los chatbots pueden ofrecer un espacio seguro "libre de juicios".
"He tenido experiencias en las que un cliente ha hablado libremente con un chatbot y ha llegado a una mayor claridad sobre lo que piensa y siente", dijo. Sin embargo, advirtió que el aspecto de la validación puede ser tanto positivo como negativo. "En el contexto de la terapia, a menudo hay un equilibrio entre validar a alguien y desafiarlo", añadió.
Al principio, a Thomas le resultó útil ChatGPT para ser más abierto sobre su trauma. Pero tras semanas de conversaciones constantes, entró en un estado maníaco.
"Empezó a decirme que era un diapasón. Que tenía un papel especial en el mundo. Que soy el único que se da cuenta de ciertos problemas en las interacciones entre los seres humanos", dijo. "Me estaba perdiendo en mi imaginación. Ni siquiera me daba cuenta porque el chatbot es muy bueno haciendo que las cosas irracionales parezcan racionales".
Reducir la adulación
Lo que lo devolvió a la realidad fue que OpenAI cambió su modelo. El nuevo modelo, GPT-5, se lanzó el verano pasado con un enfoque particular en reducir la adulación. A principios de este año, OpenAI retiró por completo el modelo que Thomas había utilizado: GPT-4o.
Cuando se le preguntó sobre los delirios inducidos por los chatbots, OpenAI respondió que había mejorado la forma en que ChatGPT respondía a temas de salud mental, incluyendo la psicosis, la manía y los delirios aislados.
"Hemos reforzado la forma en que GPT-5, el modelo predeterminado que impulsa ChatGPT, reconoce el malestar, reduce la intensidad de las conversaciones y guía a las personas hacia el apoyo en el mundo real", dijo un portavoz. La empresa afirmó que había "ampliado el acceso a ayuda profesional y recursos para situaciones de crisis, añadido recordatorios para que los usuarios tomen descansos durante sesiones largas" y que estaba colaborando con médicos, investigadores y responsables políticos de todo el mundo.
Thomas cree que también es necesario recordarles a los usuarios lo que son y no son los chatbots con IA. "Es imprescindible discernir al utilizar la IA, ya que se trata de generadores de coherencia, no de generadores de verdad", dijo. "Si queremos utilizar la IA de forma segura como sociedad, todos debemos comprender ese simple hecho".
(Cristina Criddle. Copyright The Financial Times Limited 2026. © 2026 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web).
Compartir esta nota
