Vivimos inmersos en ilusiones: creemos que cada avance tecnológico nos redime de nuestros pesares, cuando acaso nos acerca a nuestra propia perdición. Como si cada innovación digital contribuyera a superar tantos pesares, mientras conduce a nuestra civilización hacia un mundo siempre mejor.

En ese contexto celebramos la inteligencia artificial (IA) como si fuese un milagro cuasi divino y no un artilugio parcializado. Cada línea de código está entrelazada con desigualdades, explotaciones y devastaciones ambientales.

¿A quién sirve realmente la IA: al bienestar colectivo o al lucro de unos pocos?  Detrás de cada “avance” hay servidores que consumen océanos de energía y mineros que extraen cobalto a mano para sostener el espejismo digital del primer mundo.

La IA no es neutral. Está más parcializada que un árbitro comprado. No es un regalo como el maná, caído de algún cielo sin costo alguno. Es un espejo de nuestras sociedades y, a veces, un castigo para quienes jamás vieron sus beneficios. Su desarrollo y uso revelan más sobre nuestras prioridades políticas y económicas que sobre la artificialidad de su supuesto pensamiento e “inteligencia”.

Estas líneas algo deshilachadas, si bien escritas al amparo del análisis La inteligencia artificial desde la ética y la política de Lucía Ortiz de Zárate, proponen un recorrido por los dilemas éticos y políticos que plantea la IA, con el solo objetivo de reflexionar acerca de qué tipo de sociedad estamos construyendo y a qué precio.

A. Sonambulismo tecnológico y tecnooptimismo

La sociedad contemporánea parece caminar dormida frente al avance tecnológico. El “sonambulismo tecnológico” de Langdon Winner describe nuestra aceptación acrítica de la tecnología: asumimos que toda innovación es beneficiosa y neutral, sin preguntarnos quién se beneficia ni a qué costo.

Ese estado se refuerza con el tecnooptimismo, la creencia de que la IA puede resolver cualquier problema, desde la justicia social hasta la crisis climática, sin producir efectos adversos significativos. ¿Puede una máquina que aprende de nuestros sesgos reparar las injusticias que nosotros mismos no resolvemos?

En ese contexto, por ejemplo, no pasemos por alto los algoritmos de selección de personal o de crédito que reproducen discriminaciones de género, raza y clase existentes.

Ese solo ejemplo ha de recordarnos que la IA refleja la sociedad que la constituye y acepta, así como que su “objetividad” es, en gran medida, un espejismo.

La ventaja del susodicho enfoque crítico es que nos obliga a cuestionar la neutralidad tecnológica y a tomar decisiones informadas sobre su adopción. Algunos tecnólogos, sin embargo, sostienen que, con regulación y supervisión constantes, la IA puede ser más justa. Sin embargo, la realidad muestra que dicha vigilancia rara vez es efectiva, razón por la cual el riesgo de perpetuar desigualdades sigue latente.

B. La IA como tecnología política y justicia ecosocial

Más allá de ser un conjunto de algoritmos, la IA es un artefacto político. Adoptarla implica comprometerse con un modelo de sociedad determinado, además de que su desarrollo y despliegue están integrados en sistemas económicos y sociales existentes. Si alguien lo duda, basta observar el mundo que nos rodea. La expansión indiscriminada de la IA puede reforzar desigualdades estructurales y concentrar poder en muy pocos actores globales. Por ello mismo, ¿es progreso cuando el conocimiento y los datos del mundo entero terminan bajo la custodia de unas pocas corporaciones?

Esa realidad escindida salta a la vista. De un lado, la centralización de plataformas en países norteños tildados de desarrollados controla el acceso a datos y la creación de conocimientos y de un sinfín de tecnologías innovadoras; y, del otro lado, los países sureños dependen de infraestructuras ajenas para desarrollar capacidades propias.

La virtud de reconocer la dimensión política de la IA es que abre la puerta a políticas más equitativas y regulaciones democráticas. A pesar de ese valor, su lindero es que algunos tecnólogos argumentan que los beneficios económicos y sociales de la IA podrían compensar esas desigualdades si se aplican correctamente, aunque de facto el riesgo de concentración de poder pareciera seguir siendo inevitable.

De esa dimensión política se desprende otro aspecto esencial: la justicia ecosocial y la materialidad de la IA.

La IA no es intangible ni limpia. Su materialidad revela impactos graves en cada fase de su ciclo de vida, desde la extracción de minerales hasta la generación de residuos electrónicos. A la sombra de esa realidad, Ortiz de Zárate subraya que pensar la IA de manera ética requiere integrar la justicia ecosocial, considerando tres dimensiones: global, interespecífica e intergeneracional.

En términos de justicia global, nuestras decisiones tecnológicas afectan a personas en otras regiones. Minerales extraídos en África sustentan la IA que consume Europa y América del Norte, mientras los impactos se concentran en los países productores. La virtud de asumir esa responsabilidad global es que fomenta la cooperación internacional y la equidad; a pesar de lo cual, el límite de tal responsabilidad es que muchos estados priorizan los intereses nacionales sobre las obligaciones regionales e internacionales.

La justicia interespecífica reconoce que los seres vivos no humanos forman parte de la comunidad moral. La extracción de litio y cobalto destruye ecosistemas enteros, desplazando especies. Asumir esa perspectiva y sus consecuencias promueve la sostenibilidad y el respeto a la biodiversidad, aunque no todos los analistas coinciden en incluir a los no humanos como sujetos de derechos.  

La justicia intergeneracional obliga a considerar como punto de referencia a las generaciones futuras. La contaminación derivada de centros de datos y desechos electrónicos afectará a quienes aún no existen. El valor de esa perspectiva radica en introducir la sostenibilidad como criterio ético. Su límite, sin embargo, es la incertidumbre sobre los impactos futuros y la dificultad de institucionalizar una responsabilidad efectiva hacia quienes aún no nacen, sin perjudicar a las generaciones presentes.

C. Cadena de suministro de la IA

La IA requiere recursos materiales concretos que, a menudo, son explotados de manera desigual. Si bien evidenciar esas desigualdades fomenta la responsabilidad ética, algunos defienden que la minería tecnológica genera empleo local, no obstante que los beneficios reales se concentren en corporaciones multinacionales.

Los centros de datos consumen enormes cantidades de electricidad y agua; entrenar un modelo de IA puede generar cientos de toneladas de CO₂. La ventaja de señalar tal impacto es que impulsa la eficiencia energética y la transición a energías renovables; aun cuando no pocos sostengan que la eficiencia y el uso de energías limpias mitigan parcialmente esos daños.

Finalmente, la vida corta de los dispositivos electrónicos produce desechos tóxicos, frecuentemente exportados al sur global para reciclaje informal. Reconocer la cadena de consumo resalta la relación entre tecnología, justicia social y ambiental. A pesar de que la economía circular puede reducir los daños, su implementación sigue siendo harto limitada.

D. Problemas éticos centrales

Ahora bien, la IA plantea dilemas éticos que van más allá de los impactos materiales y ecosociales. En el corazón del debate laten viejos fantasmas del progreso.

Entre los más acuciantes figuran los sesgos y la discriminación, que perpetúan las desigualdades históricas bajo una apariencia de objetividad; la pérdida de autonomía, cuando los algoritmos aprenden a anticipar y condicionar nuestras decisiones; la opacidad de los sistemas, donde nadie parece responsable de los errores; y el lenguaje engañoso con que se nos presenta la IA como inteligencia auténtica. Todos ellos configuran un campo ético minado donde la técnica deja de ser herramienta y se convierte en mediadora y fin en sí misma de lo humano. Y, por eso, ¿puede el progreso medirse sin justicia, o la justicia sin humanidad?

Como advierte Langdon Winner, las tecnologías no son neutras: encarnan decisiones políticas y valores sociales, aunque se disfracen de eficiencia.

En concreto, lo significativo es que una ética política invierte la lógica habitual: primero definimos la sociedad que queremos, luego construimos la IA que la respalde.

¿Qué implica esa inversión de los factores?

Por aquello de que, a diferencia del ámbito matemático, en el mundo real el orden de los factores sí altera el resultado, dicha inversión significa regular la extracción y uso de recursos naturales, garantizar condiciones laborales justas, priorizar transparencia y participación pública, e incorporar justicia global, interespecífica e intergeneracional como criterios de desarrollo tecnológico.

Solo así, hasta prueba en contrario, la IA deja de ser un instrumento pseudoneutral, deviene ética y se convierte en un medio para la construcción de sociedades más justas y sustentables.

En resumen

La IA no es un recurso imparcial. No es un falso ídolo, a la usanza de las mercancías de antaño, que fingían mejorar nuestras vidas. Ella es un espejo de nuestras sociedades, un proyecto político y un desafío ético que atraviesa generaciones, especies y continentes. Reconocer su impacto ecosocial, cuestionar su pseudoneutralidad y exigir transparencia y justicia es indispensable para que el progreso tecnológico no sea otra fachada más de las muchas que son útiles para alienar al sujeto humano de su propio ser y encubrir tanta desigualdad como explotación.

Esta y tantas otras reflexiones éticas de la IA, como la de Ortiz de Zárate, representan una reflexión sobre la sociedad que queremos ser. La raya de Pizarro de los colonizadores, al igual que el Rubicón de cualquier César, está trazada en el tiempo; y, por ende, en ese sinfín de rostros mortales que Chronos arrastra en silencio desde tan distintos lugares. Queremos ser una sociedad que cuida a sus ciudadanos, respeta a otros seres vivos y piensa en las generaciones futuras; o, por el contrario, una sociedad que sacrifica advenimiento, justicia y sostenibilidad en el pedestal de la destrucción creativa de cualquier progreso tecnológico.

La opción está en nuestras manos. Y la decisión ética en nuestra inteligencia y voluntad. ¿Seremos capaces de elegir la sabiduría sobre la inercia, la responsabilidad sobre la fascinación tecnológica?

Falta decidir, por consiguiente, con nuestros propios recursos, si los humanos seguiremos siendo artífices de fraternidad o perpetuadores de un jaque mate mortal, a pesar de lo pensante e inteligente que somos y pretendemos ser.

Fernando Ferran

Educador

Profesor Investigador Programa de Estudios del Desarrollo Dominicano, PUCMM

Ver más