Un confidente o un amigo, un compañero de aprendizaje, un terapeuta, a veces incluso un amante, un alter ego o un pariente fallecido. Los ‘agentes conversacionales, estas inteligencias artificiales capaces de mantener complejos intercambios con nosotros, se presentan con diferentes formas y para muchos, se están convirtiendo en los interlocutores preferidos de nuestra vida cotidiana. Con ventajas y riesgos aún difíciles de evaluar.
Un informe de Baptiste Condominas
Con más de diez millones de usuarios en todo el mundo, Replika permite crear y personalizar un compañero virtual único que “se preocupa por los demás” y “escucha y habla” en todo momento. Su misión es “proporcionar un apoyo amistoso y útil”, explicaba su fundadora Eugenia Kuyda en 2023. Aunque la aplicación es una de las más famosas, no es ni mucho menos la única. Xiaoice, su equivalente chino, desarrollada por Microsoft, tiene más de 600 millones de usuarios. En pocos años, la oferta de servicios se ha multiplicado en muchos ámbitos.
En character.ai, por ejemplo, puedes encontrar entrenadores deportivos, profesores de idiomas, falsos famosos, compañeros de juegos, libreros que te recomiendan lecturas, asistentes para organizar viajes o practicar para entrevistas de trabajo. Todos son virtuales, por supuesto, con los que puedes hablar de cualquier tema que te apetezca. Y si no encuentras lo que buscas, character.ai te permite crear tu propio personaje, a la medida de tus necesidades y deseos.
Terapeutas virtuales
The Guardian recoge la historia de Christa, quien, al sentirse atrapada en su terapia tradicional, decidió crear un doble “psicólogo” con las características adecuadas, “cariñoso” e “inteligente”. Es una forma de tener siempre a mano un confidente que la aconseje y apoye, con el que se sienta libre de compartirlo todo. Su caso no es aislado, y character.ai está lleno de terapeutas improvisados.
En la actualidad existe una infinidad de aplicaciones de bienestar y apoyo psicológico, las más populares, como Wysa y Youper, cuentan con más de un millón de descargas cada una. Estas plataformas de apoyo personalizado a veces llegan muy lejos. Proyecto Diciembre permite a los usuarios chatear con un agente conversacional que simula las palabras de una persona fallecida, tras rellenar un largo cuestionario sobre el difunto, por un precio de diez dólares.
Replika se creó incluso para tratar el duelo, ya que su creador diseñó primero una IA conversacional para mantener vivo el recuerdo de un amigo fallecido. El objetivo de su modelo, basado en miles de conversaciones, era poder hablar con él como lo hacía cuando estaba vivo. Y fue al ver la especial relación que los internautas tenían con esta réplica virtual cuando se le ocurrió desarrollar su aplicación.
Un simulacro seductor
Aunque creada en 2017, fue en 2020 cuando Replika irrumpió realmente, al igual que otras aplicaciones como Owlie o Woebot, en plena pandemia del Covid-19. Las medidas de contención y distanciamiento, con sus secuelas de depresión y ansiedad, tuvieron mucho que ver en su auge. Han proporcionado a miles de personas un punto de contacto y apoyo constante durante un periodo de soledad y estrés.
Pero las razones de su éxito hay que buscarlas también en un contexto social más amplio. Nicolas Rollet, sociólogo y profesor de Télécom París y del INRIA (Instituto Nacional de Investigaciones en Ciencia y Tecnología Digital) da algunas pistas. “Puede ser un efecto del aislamiento general de los individuos. Evidentemente, hay muchas explicaciones, entre ellas la hipertrofia del individuo, el atractivo de otra persona disponible sin esfuerzo y sin compensación emocional, la presión para rendir y quizá también una fantasía de modernidad. Lo que es especial aquí es que un simulacro de reciprocidad hace que el objeto sea a la vez seductor y gratuito”, argumenta.
Las relaciones humanas se construyen a menudo con el debate, el desacuerdo, la confrontación o el malentendido. Los agentes conversacionales son interlocutores suaves y cómodos, alineados con el usuario y diseñados para satisfacer sus expectativas. Su éxito es quizá también “signo de una especie de empobrecimiento de la relación con el otro, del deseo del otro, porque la alteridad no es sólo ‘te utilizo y me dirijo a ti’, sino que crea obligaciones”, afirma Nicolas Rollet, especialista en interacción hombre-máquina. Pero a diferencia de las relaciones humanas, la Inteligencia Artificial IA es una relación de servicio que puede desconectarse en cualquier momento. Además de ser, sobre todo, “entretenimiento, con una fuerte dimensión lúdica”, señala el sociólogo.
Sin embargo, el investigador no considera que estos diálogos con seres inanimados sean un fenómeno reciente. ¿Es tan diferente del niño que habla con sus juguetes y consigue que éstos le respondan? “Apegarse a objetos con una dimensión social no es nada nuevo. A priori, la IA no tiene nada de social, mientras los humanos no le concedan este rasgo mediante comportamientos concretos. Es la inteligencia humana la que actúa socialmente sobre un tipo complejo de inteligencia artificial; es la inteligencia humana la que se contenta con este simulacro y le concede toda una serie de rasgos que normalmente atribuiríamos a un semejante o a un animal doméstico”, afirma.
Límites
Los avances tecnológicos favorecen esta tendencia a proyectar en las IA capacidades de escucha o comprensión que no tienen. Sus respuestas son cada vez más precisas y sofisticadas, y cada vez captan e interpretan mejor las intenciones de sus interlocutores humanos. Pero tienen sus límites, y no son los menores. El más importante es que estas IA no tienen una verdadera “concepción del interlocutor”, afirma Justine Cassell, directora de investigación de INRIA y afiliada a la Universidad Carnegie Mellon. Se trata de un elemento esencial de cualquier interacción social.
Esta toma de conciencia nos permite adaptar nuestro discurso al nivel de comprensión de la otra persona, utilizar fórmulas de cortesía y diplomacia lingüística, dejar hablar a los demás para favorecer el diálogo y crear complicidad. “Te veo, te oigo, he transformado mis palabras para que sean lo más útiles posible. Intento establecer una relación de confianza y demostrar que me interesa nuestra conversación, éstas son cosas que estos sistemas no pueden manejar por el momento”, explica esta especialista en relaciones entre el hombre y la máquina.
Otra gran limitación es su falta de razonamiento. Las IA actuales tienen acceso a un gran número de documentos e información en línea, que recopilan y sintetizan para ofrecérselos al usuario. “Pero estos sistemas no distinguen entre artículos publicados, revisados por editores o periodistas y artículos escritos por niños o conspiranoicos”, señala Cassell. “No distinguen lo verdadero de lo falso, no tienen espíritu crítico”, añade. Se trata de un problema importante en un momento en que cada vez más alumnos utilizan agentes conversacionales como ChatGPT para hacer sus deberes.
Un socio especial
Estos defectos están en el centro de las investigaciones de Justine Cassell, sobre todo en educación. Sus equipos desarrollan “compañeros de aprendizaje”, IA adaptadas que ayudan a los alumnos con sus ejercicios. Estos agentes conversacionales se parecen a los niños (nunca son realistas, para evitar confusiones) y hablan como ellos, basándose en el principio de que “los niños aprenden cosas de sus iguales que no aprenden de los adultos”. Les hablan y les animan, compartiendo sus alegrías cuando tienen éxito y les hacen reflexionar cuando fracasan.
Un “compañero virtual” que les permite pensar en voz alta, en un entorno divertido, sin juicios ni presiones. Una herramienta práctica y útil que complementa la enseñanza en el aula, pero que no pretende sustituirla. Como en todos los demás sectores de la sociedad, se trata de una verdadera colaboración entre individuos y máquinas, de concebir y utilizar “la IA como un socio” y no como un “oráculo”.
Riesgos y beneficios
Para muchos investigadores, el problema no es la tecnología en sí, sino el uso que se hace de ella, sobre todo cuando lo que está en juego a nivel social y económico es considerable. Un informe publicado en 2024, el comité de ética del CNRS (Centro Nacional francés para la Investigación científica) advertía de los riesgos de “dependencia emocional, adicción, control, manipulación, falta de interacción con los demás e incluso desocialización” que pueden derivarse del uso de agentes conversacionales, con los que los usuarios tienden a “desarrollar la ilusión de una relación íntima y de confianza entre ellos y el agente, e incluso a encariñarse con él”.
Los peligros para el consumidor no son sólo los de la recogida, utilización o pirateo de datos personales, algunos de ellos íntimos, sino también psicológicos y sociales. Y aunque estas consecuencias son aún difíciles de evaluar, dada la novedad del fenómeno, los expertos del CNRS nos invitan a reflexionar sobre el lugar y el papel de estos agentes virtuales en la sociedad. Sobre todo, en un momento en que muchas empresas tratan de “humanizarlos” al máximo, lo que a veces hace difícil distinguir entre un interlocutor real o virtual.
Aunque el informe del CNRS llama a ser muy vigilantes, no niega los beneficios potenciales de estos usos. Señala que “ciertos robots sociales podrían facilitar el aprendizaje, estimular la curiosidad y la creatividad, ayudar a los pacientes a tomar su medicación con regularidad, ayudarles a hablar en público venciendo la timidez, negociar con personas de diferentes culturas y compensar diversas carencias o traumas”.
En Internet y en los medios de comunicación, muchos usuarios de agentes conversacionales hablan de cómo estos confidentes virtuales les han dado “confianza para hablar con los demás” o “mejorado [sus] relaciones”, les han ayudado a “superar la soledad” o a “superar [sus] dificultades”. Las IA aparecen en ese caso como muletas o peldaños que son bienvenidos. Eso, siempre y cuando los usuarios no desarrollen un apego emocional problemático hacia ellas, como demostró una polémica en 2023, cuando Replika impuso filtros para limitar las funciones románticas de sus bots.
Una regulación necesaria
En realidad, todo depende de quién los haga, como resume Justine Cassel, investigadora y miembro del Consejo Nacional Digital francés. “Hay personas que se suicidan cada día, están acosadas, aisladas, y necesitan ser escuchadas. Quizá haya un terapeuta virtual bien diseñado, con el acuerdo o la intervención de un terapeuta real, que consiga que acepten hablar con una persona real. Pero esa es una elección que hacen las personas que desarrollan estos sistemas”, afirma.
De ahí la necesidad, para muchos expertos, de regular el sector para evitar abusos o excesos. Como ha ocurrido a menudo con toda revolución científica. Como señala el sociólogo Nicolas Rollet, “sabemos fabricar coches que pueden ir a 300 km por hora, pero restringimos los motores y tenemos un enfoque ético de la carretera que limita los accidentes”. El mismo tipo de razonamiento podría muy bien aplicarse al desarrollo de las IA parlantes. “No hay ninguna razón por la que no debamos regular esta tecnología, como hemos hecho con todas las demás”, agrega.
El investigador apoya la idea de un “progresismo vigilante”, para evitar las trampas del pánico moral, por un lado, y del entusiasmo ingenuo, por otro. El desarrollo de la inteligencia artificial plantea numerosas cuestiones éticas y polariza el debate. Algunos intelectuales temen que las IA deterioren el vínculo social, embrutezcan la sociedad y empobrezcan las relaciones humanas. Y los riesgos son muy reales, según cómo se utilicen, pero el problema quizá no sea la máquina en sí. En cambio, el ser humano que hay detrás parece capaz, como siempre, tanto de lo mejor como de lo peor.