He estado fascinada con este tema últimamente y me he dedicado a investigarlo. Es que se trata del futuro no tan lejano que, a decir verdad, será distópico.
No soy una experta en inteligencia artificial, pero si algo he concluido es que no es perfecta. Incluso no programándose para discriminar, puede aprender por sí sola a hacerlo.
El machine learning o aprendizaje automático, de acuerdo a uno de los ensayos leídos, se define como “la capacidad de predecir el futuro con datos del pasado utilizando computadoras”. Si se quiere, por ejemplo, determinar la probabilidad de ocurrencia de crímenes, se pueden recolectar miles de fotografías de personas que han delinquido, junto a informaciones como: modus operandi, lugar, raza, color, género, edad, etc. El algoritmo, con estos datos, está entonces preparado para pronosticar quién va a llevar a cabo el próximo delito y dónde. Simple inducción.
Pero surge un problema: esta predicción se fundamenta en números fríos. La policía en EE.UU. es más agresiva en lugares donde hay afroamericanos o latinos, en razón de que es la población más perseguida y encarcelada. En otras palabras, se codifican matemáticamente los estereotipos que responden a nuestra realidad. Un extenso artículo de ProPública[1] confirmó en 2016 que el sistema judicial de varios estados utiliza IA para predecir la reincidencia. Señaló que los algoritmos favorecen por mucho a las personas blancas, a pesar de que el registro no incluye preguntas sobre raza o color de piel. Hay una serie de elementos que han debido ser considerados y que no se incorporan.
Amazon es otro excelente ejemplo. Hace un tiempo diseñaron un sistema algorítmico para, de manera inteligente, seleccionar personal. Sin embargo, éste empezó a discriminar las hojas de vida que incluían la palabra “mujer”, y a favorecer términos que eran más comunes entre los hombres.
Resulta que la mayoría de los aplicantes eran hombres, pues dominan el mundo de la tecnología, lo cual impuso un sesgo que afectó la contratación final. El algoritmo se enseñó a sí mismo que los candidatos masculinos eran una preferencia, sobre todo para los puestos técnicos. El proyecto fue abortado, aunque Amazon nunca dio ninguna explicación. Tampoco comprometió la marca.
Por si no bastara, el sesgo de género en la tecnología va un poco más allá. En una entrevista de la BBC se expone que no es para nada coincidencia que Siri, Alexa y Cortana sean mujeres: las nuevas asistentes, delicadas y complacientes. Los avatares femeninos y las fembots hipersexualizadas, a su vez, abundan, accediendo a toda clase de fantasías masculinas. ¿Acaso esto no perpetúa los estereotipos en el imaginario colectivo?
Una fuerte regulación legal a nivel internacional, así como la promoción de una mayor diversidad entre quienes diseñan, pueden que sea la clave para garantizar el respecto a los derechos humanos en el contexto de la tecnología. Nosotras solo somos a penas el 20% de la industria. La inteligencia artificial ya está en manos de quienes tienen el poder económico, y nos puede destruir.
[1] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing