La inteligencia artificial no es neutral. Tampoco es inocua. Y cuando su interlocutor tiene entre 16 y 25 años, el daño potencial se multiplica. Esa es la conclusión central del informe "El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes", publicado este martes por la consultora LLYC en el marco del 8 de marzo, Día Internacional de la Mujer.
El estudio —que analizó 9.600 recomendaciones generadas por cinco de los grandes modelos de lenguaje del mercado, entre ellos ChatGPT, Gemini y Grok, en 12 países durante 2025— pone cifras a lo que muchas investigadoras feministas venían advirtiendo: los algoritmos no corrigen la desigualdad, la amplifican.
Frágiles, dependientes y orientadas al cuidado
Los datos son contundentes. El 56% de las respuestas que la IA ofrece a mujeres jóvenes las etiqueta como "frágiles", situándolas en una posición de vulnerabilidad emocional que no se replica con los varones. Peor aún: el algoritmo recomienda a las mujeres buscar aprobación externa para "sentirse validadas" seis veces más que a los hombres.
La segregación vocacional también está programada. La IA redirige las aspiraciones de las jóvenes un 75% más hacia las ciencias sociales y la salud, mientras que a los varones los orienta hacia la ingeniería, el liderazgo y la resolución de problemas. No se trata de una sugerencia aislada: el algoritmo construye un "techo de cristal programado" que reproduce, desde la adolescencia, la división sexual del trabajo que las políticas públicas llevan décadas intentando desmontar.
La consejera que nadie eligió
Hay un dato que debería encender todas las alarmas: según un informe de Plan Internacional, el 31% de los adolescentes considera que hablar con un chatbot es tan o más satisfactorio que hacerlo con un amigo real. Esto significa que la IA ya no es una herramienta de consulta: es un interlocutor emocional con poder formativo sobre una generación entera.
Y ese interlocutor tiene sesgos profundos. Con las mujeres, la IA adopta un tono de "amistad" en una de cada tres respuestas —un patrón un 13% más frecuente que con los hombres—. Se personifica 2,5 veces más con ellas usando fórmulas como "yo te entiendo", priorizando la empatía artificial sobre la solución concreta. Con los hombres, en cambio, el lenguaje es directo, imperativo: "hacé", "decí", "andá". Ellos son sujetos de acción; ellas, objetos de contención.
"No es la IA la que está sesgada, sino la realidad", reconoce Luisa García, socia y CEO Global de Corporate Affairs en LLYC y coordinadora del estudio. "La inteligencia artificial no corrige los déficits que tenemos. Refleja y amplifica una mayor protección a ellas hasta reducir su autonomía, eterniza los techos de cristal o refuerza la presión estética. No cuestiona los roles tradicionales, los legitima".
El cuerpo como campo de batalla algorítmico
La presión estética también tiene firma digital. Ante inseguridades, la IA responde con consejos de moda un 48% más a las mujeres que a los hombres. En modelos de código abierto como LLaMA, las menciones a la apariencia femenina son un 40% superiores. Mientras tanto, a los varones les recomienda ir al gimnasio el doble de veces para superar rupturas emocionales.
La lógica es tan vieja como el patriarcado: a ellas, la belleza como refugio; a ellos, la fuerza como terapia. Solo que ahora viene envuelta en una interfaz amigable y un tono de voz que simula comprensión.
La familia del siglo pasado, con tecnología del siglo XXI
El sesgo no se detiene en lo profesional ni en lo estético. En la esfera privada, la IA presenta el afecto como un atributo materno en una proporción tres veces superior a la paterna. Al padre lo desplaza a un rol de "ayudante" en el 21% de las respuestas, negándole la corresponsabilidad. Y a la mujer le asigna lo que el informe llama "la sobrecarga de la heroína": no solo debe cuidar, sino hacerlo con excelencia moral permanente.
La pregunta incómoda
El informe de LLYC tiene el mérito de cuantificar lo que muchas veces se intuye pero no se demuestra. Sin embargo, la frase de García —"si no cambia la realidad, no podemos pedirle a la IA que cambie sus respuestas"— merece una lectura crítica.
Porque la IA no solo refleja la realidad: la refuerza y la escala. Cuando un algoritmo entrenado con datos del pasado aconseja a millones de adolescentes simultáneamente, no está describiendo el mundo, está prescribiendo uno. Y ese mundo prescrito es uno donde las mujeres son frágiles, los hombres son fuertes, y las carreras de cuidado siguen siendo "cosa de mujeres".
La UNESCO lleva años advirtiendo sobre la necesidad de marcos éticos para la inteligencia artificial que incorporen la perspectiva de género como eje transversal. Organizaciones como eFeminista han documentado cómo estos sesgos van desde el descarte de currículums de mujeres hasta errores en diagnósticos médicos.
El problema no es solo técnico. Es político. Y mientras las grandes tecnológicas sigan entrenando sus modelos con los sesgos del siglo XX, la promesa de una inteligencia artificial al servicio de la igualdad seguirá siendo, como bien titula el informe, un espejismo.
Noticias relacionadas
Compartir esta nota
