Estamos en 2034. Ayer fue el día de los trabajadores, pero ya nadie lo recuerda porque lo cambiaron para el lunes para que gente con dinero pueda irse a la playa todo el fin de semana.
Yarisol no tiene esa opción. Ella llega a su trabajo en un Call Center de Santo Domingo y, antes de contestar la primera llamada, la empresa ya sabe cómo está su cara, su pulso y su ánimo. No la están mirando trabajar: la están midiendo por dentro.
Marca su entrada con el rostro, no con el dedo. La cámara que la reconoce también registra una primera lectura emocional: "Estado al ingresar, neutro tirando a bajo". Luego se sienta en su cubículo, se pone los audífonos y ajusta el cintillo que la empresa entregó el primer día de trabajo como parte de un programa llamado 'Bienestar Laboral'. El aparato mide su pulso, su respiración y unas señales finas de actividad cerebral que la supervisora llama, sin saber muy bien qué son, "ondas de concentración".
Yarisol firmó el consentimiento ese primer día. Eran veintidós páginas. No las leyó. Nadie las lee.
Empieza a contestar llamadas de clientes en Atlanta. En la pantalla aparece un círculo de color al lado del nombre de cada cliente: verde, amarillo o rojo. Es la lectura emocional del cliente en tiempo real. Hay otro círculo, más pequeño, en la esquina inferior. Ese es el de ella. Si el círculo se pone amarillo demasiado tiempo, la supervisora recibe una alerta. Si se pone rojo, la conversación queda marcada para "revisión de calidad".
Yarisol ya aprendió a sonreír mientras habla, aunque el cliente la esté insultando. Lo aprendió en el entrenamiento. Lo que no sabe es que el sistema también detecta cuándo la sonrisa no le llega a los ojos.
A media mañana recibe un mensaje en la plataforma interna:
"Tu nivel de compromiso afectivo está por debajo del promedio del equipo esta semana. Considera tomar una pausa de respiración guiada."
Es la cuarta vez en el mes, y Yarisol sabe lo que significa. Si llega una quinta alerta, no la van a despedir inmediatamente. Eso sería ilegal. Simplemente no la van a llamar para el bono trimestral y le tocará otro mes de turnos de fin de semana, los peor pagados.
A la hora del almuerzo va al baño, entra en un cubículo y respira hondo. El baño es el único lugar del edificio sin cámaras, sin micrófonos y sin cobertura de la diadema, que se desconecta al salir del piso de operaciones. Por eso, desde hace dos años, las trabajadoras se quedan allí más tiempo del necesario. Lo llaman "ir al espacio". Es el único momento del día en que su cara y su pulso vuelven a pertenecerle.
En la noche, en su casa de Villa Mella, Yarisol no tiene ganas de hablar con su marido, aunque tampoco tiene ganas de quedarse callada. Siente algo raro, como si alguien le hubiera apagado una parte por dentro. Él le pregunta si está bien. Ella dice que sí, sonríe, y la sonrisa le sale automática, igualita a la del trabajo.
————
Esto que acabamos de narrar todavía no existe completo en la República Dominicana. Aunque todas las piezas existen, y algunas ya están aquí. Otras están a cuatro o cinco años de llegar. Y la conversación pública del país casi no se ha enterado.
La República Dominicana no tiene que inventar este futuro: ya tiene la infraestructura laboral perfecta para recibirlo. La industria de los Call Centers y del BPO, la tercerización de servicios para empresas extranjeras emplea a decenas de miles de personas en el país, en su mayoría jóvenes, muchas de ellas mujeres, atendiendo en inglés a clientes de Estados Unidos. En ese mundo ya se mide casi todo: la duración de cada llamada, el tiempo entre una interacción y otra, la satisfacción del cliente, la productividad por hora, la pronunciación, el silencio, la pausa, la cortesía. La inteligencia artificial emocional no llegaría a un terreno vacío, sino a un país que ya está aprendiendo a medir cada segundo de la voz trabajadora.
Conviene explicar de qué estamos hablando.
Durante los últimos quince años, la vigilancia digital ha ido entrando en capas. Primero fue lo externo: dónde estás, qué compras, con quién te comunicas. Después vino lo conductual: en qué haces clic, cuánto tiempo miras una publicación, qué tan rápido deslizas el dedo. Más tarde llegó lo relacional: tu red de contactos, los metadatos (información sobre los datos) de tus mensajes, las conexiones que permiten inferir quién eres sin preguntártelo directamente. Y más recientemente llegó lo cognitivo: tus búsquedas, tus borradores, tus conversaciones con sistemas de inteligencia artificial en la madrugada, cuando no puedes dormir.
Cada capa se acercó más a la persona sin tocarla del todo. Una infería tu intención. Otra tu posición social. Otra tu pensamiento. Ninguna necesitaba tu cuerpo.
La inteligencia artificial emocional cambia eso completamente. Ésta promete leer músculos de la cara, tono de voz, ritmo respiratorio, variabilidad del corazón y sudoración para inferir cómo se siente una persona. Esa es la diferencia, ya que mientras las capas anteriores recogían las huellas que el cuerpo iba dejando, ésta extrae información del cuerpo en tiempo real.
El trabajador ya no genera datos solo cuando actúa. El trabajador es el dato, por el simple hecho de estar vivo en un espacio monitoreado.
En la vida de Yarisol, eso significa que una mala noche de sueño puede convertirse en una alerta de bajo rendimiento. Una cara cansada puede ser leída como falta de entusiasmo. Una respiración agitada puede alimentar un informe de "riesgo emocional". Un día difícil puede convertirse en una penalidad disfrazada de recomendación de bienestar.
Ese es el truco central: la vigilancia rara vez se presenta como vigilancia, sino como ayuda.
La vigilancia conductual se llamó "personalización". La vigilancia cognitiva se llamó "asistencia". La vigilancia emocional se está vendiendo como "bienestar", "compromiso" y "cultura organizacional". El monitoreo cerebral probablemente se venderá como "seguridad por fatiga" o "ergonomía mental". Cualquiera que sea el nombre elegante que le pongan, el patrón es predecible: la crítica de hoy se convierte en el eslogan publicitario de mañana.
Ya hay empresas que usan sistemas de análisis de voz en call centers para evaluar tono, ritmo, señales de cansancio, empatía y reacciones emocionales durante las llamadas. El caso más citado es Cogito, una tecnología usada en centros de atención de empresas como MetLife y Humana.
También existen dispositivos vendidos como herramientas de meditación, concentración o salud que miden señales fisiológicas del cuerpo: pulseras, anillos inteligentes, relojes y diademas capaces de producir datos continuos sobre sueño, estrés, frecuencia cardíaca o actividad cerebral básica. Los estamos usando para ayudarnos o estar actualizados sin saber que estos podrían ser nuestra próxima cadena.
El argumento empresarial suele ser el mismo: mejorar el bienestar, prevenir el agotamiento, aumentar la seguridad, personalizar la jornada laboral. Sin embargo, cuando esos datos entran al trabajo, la pregunta cambia. Ya no se trata solo de si el aparato mide algo. Se trata de quién interpreta esa medición, con qué criterios y para tomar qué decisiones.
Una cosa es que una persona use un reloj para conocer cómo fue su sueño. Otra muy distinta es que una empresa use ese dato para decidir si esa persona está comprometida, agotada, riesgosa, productiva o merecedora de un bono.
Mientras más íntima es la información, más graves son las consecuencias de equivocarse.
Y aquí está el problema más delicado: la ciencia detrás de muchas de estas tecnologías es más débil de lo que su mercadeo sugiere.
El reconocimiento facial de emociones parte de una idea discutida: que existen emociones básicas que pueden leerse de manera universal en la cara. Investigadoras como Lisa Feldman Barrett 1/ han cuestionado fuertemente esa premisa. La inferencia emocional a partir del pulso o la respiración es todavía más incierta, porque un corazón acelerado puede significar miedo, cansancio, café, ansiedad, enfermedad, calor o prisa. Y la lectura de estados mentales a partir de señales cerebrales, fuera de tareas muy específicas, sigue estando lejos de lo que prometen muchas empresas.
El modelo no descubre que Yarisol está triste. Produce una etiqueta llamada "bajo compromiso". Luego la empresa actúa como si esa etiqueta fuera verdad.
Ahí está el peligro. Un clic, una ubicación, una palabra escrita existen. Una "emoción" leída por una cámara o por un algoritmo es más una interpretación que una medición. Y cuando una interpretación se convierte en salario, bono, turno, evaluación o despido indirecto, deja de ser una curiosidad tecnológica y se convierte en un problema laboral, legal y político.
Uno puede no hacer clic, no publicar nada, no aparecer en Instagram o TikTok, o simplemente apagar el teléfono durante unas horas. Sin embargo, uno no puede no tener cara, no tener pulso, no respirar, no cansarse, o no reaccionar. La única forma real de escapar de un espacio laboral que mide el cuerpo es no estar allí. Y para mucha gente eso significa no tener empleo.
Por eso muchas trabajadoras terminan desarrollando una forma de trabajo emocional defensivo: actúan la emoción correcta para proteger la verdadera. Sonríen para que el sistema no marque alerta. Modulan la voz para que el cliente no baje la calificación. Respiran con cuidado. Aprenden a parecer tranquilas, disponibles, agradecidas, aun cuando no lo están. No hay dudas de que la atención al público de una persona en un call center es parte del trabajo. El problema surge cuando la actuación se convierte en la única forma de privacidad disponible y no siempre tenemos las capacidades de una actriz o un actor.
La pregunta para la República Dominicana, entonces, no es si esta tecnología parece moderna, eficiente o atractiva para la inversión extranjera. La pregunta es si nuestras leyes, nuestras instituciones laborales y nuestra conversación pública están preparadas para ponerle límites.
Europa ya entendió el riesgo. La Ley de Inteligencia Artificial de la Unión Europea 2/ prohíbe, salvo excepciones médicas o de seguridad, el uso de sistemas de IA para inferir emociones en el trabajo y en instituciones educativas. República Dominicana debería mirar ese límite antes de que estas tecnologías se normalicen en sus centros laborales.
La Ley 172-13 sobre protección de datos personales fue pensada en otro momento tecnológico. Fue diseñada para un mundo donde los datos se generaban principalmente al llenar formularios, abrir cuentas, hacer transacciones o entregar información identificable. El régimen que se acerca trata datos que se producen por el simple hecho de existir: la voz, la cara, el pulso, el sueño, la respiración, el cansancio.
La ley puede hablar de consentimiento. Aunque ¿qué significa consentir cuando la alternativa es no conseguir o no conservar un empleo? Puede hablar de datos personales. ¿Qué pasa cuando el dato no es una dirección o una cédula, sino la respiración de una trabajadora durante una llamada? Puede hablar de finalidad. ¿Quién controla que un dato recogido para "bienestar" no termine usado para evaluar productividad?
Ese debate en nuestro país debería empezar antes de que la tecnología se normalice, no después.
La República Dominicana celebra con razón el crecimiento de los servicios, la llegada de inversiones y la creación de empleos formales. Un país no puede medir el éxito laboral solo por la cantidad de puestos de trabajo creados. También tiene que preguntarse qué tipo de trabajo está promoviendo, qué exige ese trabajo por dentro y qué queda de una persona cuando hasta su cansancio empieza a ser propiedad de la empresa.
———-
Esa noche, después de que su marido se queda dormido, Yarisol mira el techo. Tiene veintinueve años y hace ya algún tiempo que hablan, sin urgencia, de tener un hijo. A ella siempre le sonó como algo que ocurriría más adelante: cuando las cosas estuvieran más calmadas, cuando ahorraran un poco, cuando ella no estuviera tan cansada.
El "más adelante" se ha ido corriendo solo.
Por primera vez se le ocurre con claridad que el problema no es solo el dinero, ni el apartamento, ni el tiempo. Lleva once horas, contando el trayecto, actuando una versión de sí misma que el sistema acepta. Llega a la casa con la sonrisa todavía pegada a la cara, como un maquillaje que no se le quita. Cuando su marido la abraza, sabe que el abrazo es bueno, aunque lo siente desde lejos, como si lo estuviera mirando por la pantalla de otra persona.
Piensa en su mamá, que la tuvo a ella a los veintidós, en una vida más dura en casi todo lo material, aunque al menos al llegar a la casa una era una. Piensa en lo que sería cargar a un bebé con los brazos que le pertenecen a una empresa once horas al día, mirarlo a los ojos con una cara que ya no sabe muy bien cuándo es suya y cuándo es la del trabajo, cantarle con una voz que el sistema todavía estaría calificando si no se la hubiera quitado al salir. No es que no quiera tener un hijo: es que no sabe con qué pedazo de ella lo tendría. Parece como si toda la economía del país estuviera organizada precisamente para que mujeres como ella ni siquiera leguen a hacerse esa pregunta.
Lo que Yarisol no tiene manera de saber, porque nadie se lo ha explicado y porque la conversación pública del país está en otra cosa, es que esa duda no es solo suya. Es la duda silenciosa de toda una generación, especialmente de mujeres, que está siendo vaciada por dentro, en horario de trabajo, mientras los indicadores de productividad suben, mientras las exportaciones de servicios crecen, y mientras los políticos celebran cada nueva inversión extranjera contando los empleos que genera sin preguntarse nunca qué tipo de empleos, ni qué le hacen al ser humano que los ocupa, ni por qué ese ser humano, al final del día, ya no tiene fuerzas ni siquiera para imaginar a un nuevo ser.
Yarisol todavía no tiene un nombre para lo que le está pasando. El país tampoco. Sin embargo, si esperamos a nombrarlo cuando ya esté instalado, quizá sea demasiado tarde para decidir si ese era realmente el futuro laboral y demográfico que queremos.
Aunque quién sabe si en 2034 las empresas ya no seguirán necesitando monitorear los estados de ánimo de sus empleados, considerando que estos entregan cada vez más su información emocional de forma voluntaria a través de chatbots, a cambio de una empatía automatizada que no exige reciprocidad. ¿Le servirá a Yarisol contar con esta opción de consuelo?
———–
Inspirado en el artículo: "The rise of emotional surveillance: Companies are monitoring workers not just for productivity but for agreeability." Por Ellen Cushing. The Atlantic. May 4, 2026.
https://www.theatlantic.com/culture/2026/05/worker-surveillance-emotion-ai/687029/?gift=4arOhcOgLMAjD6pudLAaugFuzxSJeL5c8uFKGOjTA0w
Referencias:
1/ Barrett, Lisa Feldman; Adolphs, Ralph; Marsella, Stacy; Martinez, Aleix M.; Pollak, Seth D. "Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements." Psychological Science in the Public Interest, vol. 20, no. 1, 2019, pp. 1–68.
2/ Europa ya entendió el riesgo. La Ley de Inteligencia Artificial de la Unión Europea (Reglamento UE 2024/1689,) prohíbe, salvo excepciones médicas o de seguridad, el uso de sistemas de IA para inferir emociones en el trabajo y en instituciones educativas. Es el primer marco jurídico global en materia de IA emocional en todo el mundo.
Compartir esta nota