Junto a la guerra nuclear, el cambio climático y las pandemias, el fenómeno tecnológico en auge de la Inteligencia Artificial (IA) parece ganar terreno, en las últimas dos décadas de este siglo, en la discusión pública entre filósofos y científicos de la posible autodestrucción de la humanidad.
Los intelectuales más radicales dirían como Fredic Jameson, que hoy parece “más fácil imaginar el fin del mundo que el fin del capitalismo”. Implicando que el desarrollo de las fuerzas productivas y las relaciones sociales de este sistema tal y como ha evolucionado hasta hoy, parece ser la causa eficiente de estas cuatro causas de riesgo existencial de la humanidad.
Las computadoras tradicionales hacen lo que los programadores le dicen, siguiendo las instrucciones en la forma de códigos o algoritmos. Para hacer tareas más complejas, los científicos e ingenieros informáticos en los laboratorios de investigación de las grandes empresas tecnológicas (Appel, Google, Microsoft, Amazon, Facebook) están tratando de entrenarlas para que aprendan imitando el comportamiento humano. Esto lo hacen si se les enseña a analizar datos y sacar patrones de estos usando sistemas conocidos como red de neuronas, en modelos muy simples de como pensamos que funciona el cerebro humano. Es a este tipo de algoritmo que se le llama IA.
Actualmente casi en cualquier circunstancia en que uno interactúa con otra persona está siendo evaluado por un producto o servicio de IA llamados chatbots (modelos grandes de lenguaje) ya muy conocidos en los departamentos de servicio al consumidor. En la medida en que los sistemas de IA tengan mayor capacidad, esperamos encontrar más de ellos lidiando con tareas cada vez más complejas. Por ejemplo, en las tecnologías de síntesis y reconocimiento de voz, que no solo te responderán llamadas telefónicas, sino que inclusive te llamarán por teléfono. Están los casos menos obvios. El sistema se puede usar para clasificar, etiquetar y organizar datos, asistir en la creación de programas simples, resumir y generar correos; cualquier cosa en que el texto esté disponible, cualquier cosa manejada en un chatbot.
El ChatGPT de Microsoft o su rival chino Ernie de Baidu, son los modelos más populares de IA generativa. Estos usan métodos estadísticos, ya no con la lógica absoluta que usan las computadoras tradicionales, sino con la inducción, para extrapolar datos y después aplicar estos patrones para generar automáticamente en segundos, textos aparentemente plausibles, imágenes, y otros productos como música o código de computadora, en función de los requerimientos del usuario.
El problema es que este tipo de modelos tienen una alarmante tendencia a generar información imprecisa, aunque aparenta razonable, que tiene muy poca o ninguna relación con la realidad.
Los orígenes del desarrollo de los algoritmos para crear la IA fueron en 1958, con el modelo Percepton desarrollado por el profesor Frank Rosenblat de la Universidad de Cornell. Luego en 1986, Geoffrey Hinton y dos de sus colegas en la Universidad de Toronto, diseñaron un modelo de IA que permitía que una red de neuronas, utilizando una técnica matemática llamada “back propagation” se convirtiera en un aprendizaje que mejorara constantemente, lo que hoy se conoce como “deep learning”. El objetivo “era el construir una máquina que no solo reconociera objetos, sino que también reconociera la palabra hablada, entendiera el lenguaje natural, llevar a cabo una conversación, y tal vez inclusive que resolvería problemas que los humanos no pudiesen resolver por si solos”.
Es obvio que el mercado de trabajo será desestabilizado por la automatización digital de los procesos de trabajo en el segmento los profesionales del conocimiento o empleados de cuello blanco como contables, arquitectos, abogados, programadores. Estos empleos representan representa un 27% de los empleos en los países desarrollados y en nuestro país es un 17% de la población ocupada.
Los más optimistas enfatizan, con razón, los muchos y prometedores beneficios positivos derivados de la IA que van desde el robot que limpia el piso, los aceleradores y multiplicadores de los descubrimientos para el tratamiento de enfermedades como la demencia, determinados tipos de cáncer, hasta la reducción de las emisiones de carbono.
Cuatro de los riesgos que se han identificado, sobre todo en el uso negativo de los modelos más complejos y sistemas superinteligentes conocidos como Inteligencia Artificial General son: su capacidad para crear y usar armas biológicas; creación de ciberataques sofisticados; evadir el control humano, y el fraude o sesgos inducidos en la población a través de información manipulada y falsa que pueden perjudicar la democracia (por ejemplo, en las elecciones).