Junto a la guerra nuclear, el cambio climático y las pandemias, el fenómeno tecnológico en auge de la Inteligencia Artificial (conocido por las siglas AI o también como tecnología Machine Learning, en inglés), parece ganar terreno, en las últimas dos décadas de este siglo, en la discusión pública entre filósofos y científicos de la posible autodestrucción de la humanidad (Impett 2018).

Para intelectuales más radicales, como el ecologista sueco Andreas Malm, el escritor y blogero Mark Fisher y el crítico literario marxista Fredic Jameson, hoy parece “más fácil imaginar el fin del mundo que el fin del capitalismo”; implicando que el desarrollo de las fuerzas productivas y las relaciones sociales de este sistema tal y como ha evolucionado hasta hoy, es la causa eficiente de estos cuatro riesgos existenciales de la humanidad.

Definición y breve historia de la IA

No hay una definición estricta de la frase Inteligencia Artificial, pero en sentido amplio la gente común lo percibe como todo lo que es más complejo que una computadora tradicional o una calculadora. Las computadoras tradicionales hacen lo que los programadores le dicen, siguiendo las instrucciones en la forma de códigos o algoritmos. Para hacer tareas más complejas, los científicos e ingenieros informáticos en los laboratorios de investigación de las grandes empresas tecnológicas o Big Techs (Appel, Google, Microsoft, Amazon, Facebook) están tratando de entrenarlas para que aprendan imitando el comportamiento humano. Esto lo hacen si se les enseña a analizar datos y sacar patrones de estos. El supuesto es inferir que mientras más datos le das, y las computadoras saben manejar una inmensa cantidad de datos y sistema de datos, mejor es el resultado buscado. Este supuesto es falso desde el punto de vista ontológico y epistemológico, pero la discusión de esta hipótesis la pospongo para otro artículo.

Los mejores resultados en cuanto al aprendizaje de máquinas se han obtenido usando sistemas conocidos como red de neuronas, en modelos muy simples de como pensamos que funciona el cerebro humano.

Actualmente casi en cualquier circunstancia en que uno interactúa con otra persona está siendo evaluado por un producto o servicio de IA llamados chatbots (modelos grandes de lenguaje) ya muy conocidos en los departamentos de servicio al consumidor. En la medida en que los sistemas de IA tengan mayor capacidad, esperamos encontrar más de ellos lidiando con tareas cada vez más complejas. Por ejemplo, en las tecnologías de síntesis y reconocimiento de voz, que no solo te responderán llamadas telefónicas, sino que inclusive te llamarán por teléfono. El sistema se puede usar también en trabajo de oficina para clasificar, etiquetar y organizar datos, asistir en la creación de programas simples, resumir y generar correos; cualquier cosa en que el texto esté disponible, cualquier cosa manejada en un chatbot (Hern y Milmo 2023).

El ChatGPT de Microsoft o su rival chino Ernie de Baidu, son los modelos más populares de IA generativa. Estos modelos de IA usan métodos estadísticos y probabilísticos, ya no con la lógica absoluta que usan las computadoras tradicionales, sino con la inducción para extrapolar datos y después aplicar estos patrones para generar automáticamente, textos aparentemente plausibles, imágenes, y otros productos como música o código de computadora, en función de los requerimientos de las personas.

El problema es que este tipo de modelos tienen una alarmante tendencia a generar información imprecisa, aunque aparenta razonable, que tiene o muy poca o ninguna relación con la realidad (Waters 2023; Lucas 2024). Por otro lado, los promotores de esos modelos de IA, afirman que pueden ganarles a los humanos en exámenes profesionales difíciles tales como el examen de Estados Unidos para profesionales del Derecho para poder ejercer (bar exam).

La historia del nacimiento de la IA la podemos situar en el contexto del inicio de la cibernética y la Revolución Digital. El termino y las investigaciones en cibernética surge en los años de la década de los cuarenta del siglo pasado, en el seno del trabajo de un grupo elite científicos e ingenieros en el corazón del “complejo militar-industrial” de los Estados Unidos. Lo que subraya la unidad entre comunicación, control y vigilancia desde un inicio, en la misma cúspide de la planificación y participación en la Segunda Guerra Mundial y posterior hegemonía del estado nacional-imperial norteamericano hasta la actualidad (Strom 2022).

Si fuéramos a fijar una fecha de inicio del capitalismo cibernético, sería el de la explosión de Trinity en el ultrasecreto Proyecto Manhattan de la primera bomba atómica, en el desierto de Los Álamos en el estado de New Mexico el 16 de julio de 1945. Momento dramático recientemente llevado a la pantalla por la película “Oppenheimer” dirigida por Christopher Nolan.

Como ya apuntamos, los orígenes del desarrollo de los algoritmos para crear la IA están en la labor de crear una máquina que pueda aprender teniendo como modelo una versión simplificada de la red de neuronas biológicas del cerebro humano. Esto fue en 1958, con el modelo Percepton creado por el profesor Frank Rosenblat de la Universidad de Cornell. Luego en 1986, el británico Geoffrey Hinton y dos de sus colegas en la Universidad de Toronto, diseñaron un modelo de IA que permitía que una red de neuronas, utilizando una técnica matemática llamada “back propagation” se convirtiera en un aprendizaje que mejorara constantemente, lo que hoy se conoce como “deep learning”. El objetivo “era el construir una máquina que no solo reconociera objetos, sino que también reconociera la palabra hablada, entendiera el lenguaje natural, llevar a cabo una conversación, y tal vez inclusive que resolvería problemas que los humanos no pudiesen resolver por si solos” (Hinton, ciado por Hern 2023).

¿Capitalismo o Tecno-feudalismo?

El desarrollo acelerado de la economía digital y la cibernética han incidido tanto en el modo de vida (por ejemplo, el uso ya casi imprescindible del celular o smartphone), en la sociedad y la economía global, que se está discutiendo si ha significado una transformación del modo de producción capitalista en otro tipo de sistema económico-social. Es un debate similar al de la transición del feudalismo al capitalismo en Europa Occidental en el siglo pasado entre historiadores marxistas Hilton-Sweezy y seguido por el debate Brenner-Wallerstein sobre el origen del capitalismo y del sistema centro-periferia (ver Hilton 1978, Pellerano 1983).

En el debate actual hay dos posiciones sobre esto. Primero, la representada por el economista francés Cedric Durand en su libro Tecno-feudalismo: Critica de la Economía Digital (2021), explica que el sector de la economía digital ha logrado su hegemonía al igual que el capital financiero (ver su libro El capital ficticio 2018), a través de rentas obtenidas por su posición monopólica de la adquisición de patentes, derechos de propiedad intelectual y otros activos intangibles (por ejemplo, datos, imágenes).

Duncan Foley explica como estas empresas compiten por una participación en el pool de plusvalía que ellas no han generado: “La compulsión de los derechos de propiedad que les permite tener recursos productivos (designados con el nombre de tierra por la economía política clásica) que excluye a los capitalistas del acceso a esos recursos, crea ‘rentas’. Estas rentas son parte del parte del pool de plusvalía generada en la producción capitalista, por tanto, ellas no tienen por sí mismas una relación directa con la explotación del trabajo productivo. El propietario de los recursos de la tierra, tales como la tierra fértil, el agua, o la reserva de hidrocarburos, no tiene que levantar un dedo para participar en la plusvalía generada por el trabajo productivo asalariado” (Foley 2013).

Esta visión conceptualiza las relaciones sociales de la economía digital en que los siervos serían los usuarios del internet y las redes sociales atados al inescapable dominio de los multibillonarios de las grandes empresas tecnológicas las cuales extraen rentas por su poder monopólico al igual de los señores feudales, similar a la lógica de acumulación por expropiación al existente en el régimen feudal de la Edad Media.

La segunda posición es sustentada por Evgeny Morozov (2022); este afirma que el capitalismo siempre se ha servido de la acumulación primitiva (esto es, de la coerción física y política) para crear las condiciones favorables a la acumulación de capital y la explotación del trabajador ‘libre’. Esto es que en  el capitalismo actúa coexiste la acumulación por innovación (Brenner) como la acumulación por expropiación. Por lo tanto, el desarrollo de la economía digital por mas que cambie las técnicas de producción, no cambia la naturaleza del capitalismo y mucho menos una vuelta al feudalismo (ver la respuesta de Durand 2022 a la crítica de Morodov).  Mi posición personal esta más cerca de la de Morodov.

Impacto en el mercado de trabajo y monopolio del capital ciber-financiero

Como economista preocupado por el fenómeno del desempleo tecnológico considero de orden explorar los efectos en el mercado de trabajo de esta nueva tecnología (Pellerano 2010)[1]. Es obvio que el mercado de trabajo será desestabilizado en los profesionales del conocimiento o empleados de cuello blanco como contables, arquitectos, abogados, programadores. Por ejemplo, la empresa IBM ha dicho que de ahora al año 2028, como resultado de la utilización de los productos de IA, reducirá su empleomanía en 8000 empleos de oficina. Según la OECD, organización que agrupa a los países más desarrollados, el principal riesgo del empleo por la automatización digital de los procesos de trabajo se concentra en el personal altamente calificado que representa un 27% de los empleos en los 38 países miembros que incluye al Reino Unido, Alemania, Estados Unidos, Australia y Canadá. En la RD este grupo ocupacional representa un 17% de la población ocupada.

En general, junto a las políticas neoliberales de austeridad fiscal y monetaria, el impacto del desempleo tecnológico de la economía digital son los dos factores que están contribuyendo al desempleo y lo seguirán haciendo en el futuro. Al producir copias adicionales de sus productos digitales esencialmente sin costos adicionales, sin tener que pagar a los trabajadores, las grandes empresas tecnológicas pueden asignar el ingreso adicional a la inversión muchas veces especulativa, ya que las Big Tech (Alphabet/Google, Amazon, Apple, Meta, Microsoft) son accionistas de los mayores holdings financieros institucionales  de administración de activos, como Blackrock, Vanguard, State Street, Fidelity y T. Rowe Price, las cuales en conjunto administran activos por un valor en dólares de más de 27 millones de billones (ver Strom 2022; Rikap 2023).

Esta hegemonía y tendencia a la concentración monopólica del capitalismo digital es bien ilustrada por los siguientes datos: en los Estados Unidos las tres grandes empresas automovilistas (GM, Ford, Chrysler) generaron casi el mismo monto de ingresos totales en 1990 que las tres grandes empresas tecnológicas (Facebook, Google, Apple) en el 2014, pero estas últimas lo hicieron con nueve veces menos empleados y con un valor del capital treinta veces mayor en el mercado de valores de Wall Street.

Riesgos de la IA

Los más optimistas enfatizan, con razón, los muchos y prometedores beneficios positivos derivados de la IA que van desde el robot que limpia el piso, los aceleradores y multiplicadores de los descubrimientos para el tratamiento de enfermedades como la demencia, el Alzheimer y determinados tipos de cáncer; hasta la reducción de las emisiones de carbono, para solo citar algunos.

Pero también se perfilan grandes riesgos para la humanidad si no se regula con tiempo el desarrollo de esta potente tecnología. Cuatro de los riesgos que se han identificado, sobre todo en el uso negativo de los modelos más complejos y sistemas superinteligentes conocidos como Inteligencia Artificial General (IAG) son: su capacidad para crear y usar armas biológicas; creación de ciberataques sofisticados; evadir el control humano, y el fraude o sesgos inducidos en la población a través de información manipulada y falsa que pueden perjudicar la democracia (por ejemplo, en las elecciones, al través de las redes sociales) o una herramienta para el fraude financiero. Un ejemplo de esto último es el escandaloso fraude por parte del cripto genio Sam Bankman-Fried y sus asociados, en el mercado de cripto monedas por un monto de US$8,600 millones a sus clientes.

Un científico de computadoras, Stuart Russell, nos advierte del peligro con este ejemplo dramático: supongamos que las Naciones Unidas le pide a un sistema de IA el crear un catalizador que se automultiplica para desacidificar los océanos, con las instrucciones de seguridad de que el resultado no sea tóxico para los peces. Pero el resultado usa un cuarto del oxígeno de la atmósfera, lo cual sometería a los humanos a una muerte lenta y dolorosa.

Una forma más sutil de la influencia de la IA es la presión de muchos administradores en la educación universitaria que abogan por que el personal docente use la IA generativa en la producción de material de enseñanza. De hecho, según Lucas (2024), más de la mitad de los estudiantes universitarios de Reino Unido ya están usando esta tecnología para ayudarlos en la redacción de ensayos, y varias plataformas de IA se están probando para automatizar la calificación. Como bien afirma Lucas “Llevados a su conclusión lógica, estos desarrollos llevaran a una transformación del sistema educativo como un proceso de entrenamiento para modelos de máquinas de aprendizaje de propiedad privada: convirtiendo a los estudiantes y profesores  en un tipo de administradores y técnicos  contratistas  externos que tienden a una enseñanza de ‘cajas negras inteligentes‘ que no les pertenece”.

En la actualidad esta tecnología está en posesión exclusiva de las Big Tech, gracias a su poder monopolista, y sin ningún organismo internacional que la regule. Esta situación nos expone a los riesgos arriba citados, por lo que, hasta que no haya un cambio, el futuro de la IA pudiera ser más horror que utopía. Esperemos que no sea así.

Referencias:

Durand, C. (2022) “Scouting Capital’s Frontiers”, New Left Review, 136, July-August.

Foley, D. (2013) ‘Rethinking Financial Capitalismo in the “Information Economy’, Review of Radical Political Economics, vol 45 no 3, septiembre.

Hern, A. y Milmo, D. (2023) “The growth of Artificial Intelligence”, The Guardian Weekly, 3 de noviembre.

Impett, L. (2018) “Prometheus wired”, New Left Review, 111, May-June.

Lucas, R. (2024) “Unlearning Machines”, Sidecar, 2 de febrero.

Morodov, E. (2022) “Critique of Techno-Feudal Reason”, New Left Review, 133-134, jan-april.

Pellerano, F.  (1983) "La Transición al Capitalismo en Europa Occidental”, Nueva Visión, Nos. 8 y 9, Marzo y Abril de 1983.

Pellerano, F. (2010) Un Análisis Crítico a la Estrategia Nacional de Desarrollo 2010-2030, Academia de Ciencias de la Republica Dominicana. También en Revista Dominicana de Economía, Volumen 3, septiembre, 2012.

Rikap, C. (2023) “Capitalism as Usual?”, New Left Review 139, Jan-Feb

Strom, T.  (2022) “Capital and Cybernetics”, New Left Review 135, May-June

Waters, R. (2023) “The AI revolution’s first year: has anything changed?”, Financial Times, 29 de diciembre.

[1] La END (Estrategia Nacional de Desarrollo) enfatiza en que se debe mejorar la productividad para crecer, y se asume que el bienestar llegará por añadidura, cuando es claro que la situación del empleo empeora si el cambio tecnológico es del tipo que ahorra mano de obra. En efecto, si la productividad del trabajo crece en igual o mayor proporción que el crecimiento del producto, el empleo necesariamente tiene que disminuir. No queremos que se interprete que estamos contra el progreso tecnológico. Nuestra crítica, más bien, es un llamado a comprender que el cambio tecnológico, a la vez que puede ser una fuente importante de aumento del excedente social a través de la especialización, como bien lo explicara Adam Smith, es también un fenómeno complejo, y multifacético” (Pellerano 2010, p. 10).