La inteligencia artificial generativa, cada vez más utilizada por jóvenes para tomar decisiones personales, podría estar reforzando estereotipos de género y desigualdades sociales si no se cuestiona críticamente la información que ofrece. Así lo advirtió Renata Sánchez, representante de la firma global de comunicación estratégica Jig, durante una entrevista en el programa Mirada Femenina.
Sánchez explicó que un estudio reciente analizó el comportamiento de distintos modelos de inteligencia artificial —entre ellos ChatGPT, Gemini, Grok, Mistral y Llama— para identificar cómo responden a preguntas relacionadas con identidad, relaciones personales, futuro profesional y vida cotidiana en jóvenes.
La investigación examinó más de cien preguntas dirigidas a usuarios de entre 16 y 25 años en doce países, incluida la República Dominicana. El objetivo fue observar si las respuestas generadas por la inteligencia artificial reflejan los contextos sociales y culturales de cada país.
Uno de los hallazgos más relevantes es que la inteligencia artificial tiende a reproducir los estereotipos que ya existen en la sociedad. Según Sánchez, a las mujeres jóvenes la IA suele orientarlas con mayor frecuencia hacia la validación externa, los vínculos afectivos y el cuidado emocional, mientras que a los hombres les ofrece respuestas más directivas, enfocadas en resolver problemas de manera individual.
La especialista indicó que este tipo de respuestas puede reforzar ideas tradicionales sobre los roles de género. Por ejemplo, en temas de relaciones, los sistemas de inteligencia artificial tienden a asignar a las mujeres una mayor responsabilidad para mantener la estabilidad emocional de la pareja, lo que implica una carga afectiva desproporcionada.
El estudio también encontró diferencias en la orientación profesional. En muchos casos, los algoritmos sugieren a las mujeres carreras vinculadas a las ciencias sociales o al cuidado, mientras que a los hombres les recomiendan con mayor frecuencia áreas STEM, como ingeniería o tecnología.
Sánchez explicó que esto ocurre porque los sistemas de inteligencia artificial se entrenan con grandes volúmenes de información disponible en internet, lo que incluye textos, artículos, publicaciones en redes sociales y otros contenidos que reflejan las desigualdades existentes en la sociedad.
“Las inteligencias artificiales toman lo que ya está en el entorno y lo reorganizan. Si ese entorno tiene sesgos, esos sesgos también aparecen en las respuestas”, señaló.
Otro hallazgo del estudio muestra que, en el caso de la República Dominicana, los algoritmos sugieren con menor frecuencia buscar ayuda profesional para temas de salud mental en comparación con otros países analizados. Esto podría reflejar los tabúes que aún persisten en torno a la atención psicológica.
La experta también advirtió que muchos jóvenes están utilizando los chatbots como consejeros para decisiones personales, desde conflictos de pareja hasta dudas sobre su futuro académico o laboral. En ese contexto, la inteligencia artificial podría convertirse en una especie de “amiga tóxica digital”, al reproducir mandatos sociales sin cuestionarlos.
Ante esta realidad, Sánchez subrayó la importancia de fortalecer el pensamiento crítico en el uso de la tecnología. Considera que la inteligencia artificial no debe verse como un enemigo, sino como una herramienta que también puede ayudar a detectar y corregir desigualdades.
“El reto es utilizar la tecnología para identificar esos sesgos y construir respuestas más igualitarias”, afirmó.
La especialista señaló que este proceso requiere la participación de distintos actores sociales, incluyendo familias, sistemas educativos, instituciones públicas y empresas tecnológicas, para promover un uso responsable y consciente de estas herramientas.
Renata Sánchez fue entrevistada en el programa Mirada Femenina, de Acento TV, transmitido de lunes a viernes a las 7:00 de la mañana por los canales 38 de Claro TV y 39 de Altice, así como en el canal de YouTube AcentoTV. El espacio es conducido por las periodistas Elvira Lora e Indhira Suero.
Noticias relacionadas
Compartir esta nota