Bill Gates (1), dilemas morales en la IA

ChatGPT es un software de Inteligencia Artificial Débil (IAD), virtual, acelerado e instantáneo de búsqueda de información, conversaciones y generación de contenido escritos. Este programa de IAD virtual simula el comportamiento de lo que es un robot real y contiene una serie de instrucciones desarrolladas en un lenguaje de programación, cuyo propósito es simular y automatizar tarea humana específica.

Gates (1) apuesta a que este tipo de Chat resuelva problemas concretos a los sujetos cibernéticos, pero al mismo tiempo establece un límite en cuanto a la realización de tareas que conlleven un mayor esfuerzo, más allá del chateo interactivo y del manejo de conocimiento explícito no complejo.

Gates se refiere a este tipo de IAD como “un modelo creado para resolver un problema específico o prestar un servicio concreto. La inteligencia artificial es en lo que se basan cosas como ChatGPT. Aprende a chatear mejor, pero no puede aprender otras tareas“ (Gates,2023, párr.15).

Esta visión de IAD deja claro que la Inteligencia Artificial Fuerte (IAF), también llamada general, aún no ha penetrado en la estructura del sistema del cibermundo y que para ello falta mucho tiempo; por lo que algunos pensadores y tecnocientíficos hablan de que el sujeto cibernético debe fascinarse con la IAD, puesto que no será hasta entrando el siglo XXII cuando la IAF llegue a moldear al cibermundo en su totalidad. De aquí a que llegue ese momento ¿Tendremos desarrollo sostenible en el mundo y cibermundo?

La IA general, de acuerdo Gates, “hace referencia a un software capaz de aprender cualquier tarea o tema. La inteligencia artificial general todavía no existe: en el sector informático existe hoy un encendido debate sobre cómo crearla y si ello es posible” (Gates, 2023, párr.16).

Sin embargo, la IAD “cambiará la forma en que las personas trabajan, aprenden, viajan, reciben atención sanitaria y se comunican entre sí. Todos los sectores se reorientarán en torno a ella. Los negocios se diferenciarán por lo bien que sean capaces de utilizarla” (ibíd., 9).

Estas apreciaciones, también las llegó a expresar el magnate del cibermundo a mediados de la década de los noventa del siglo XX, cuando apostó por el mundo de lo digital. La diferencia de esa época con la de hoy, es que su visión va más allá de cualesquiera dilemas éticos de la IA y de lo que nos depara el futuro. Estos dilemas entran en una situación difícil, porque involucran cuestiones morales de opciones conflictivas en las que las sociedades del mundo y cibermundo tendrán que ponerle límite o control, a sabiendas de que algunas de las grandes potencias políticas, militares y económicas que viven en conflictos permanentes no tomarán en cuenta los principios éticos con los que ha de manejarse la inteligencia artificial.

Para Gates, “los humanos armados con inteligencia artificial suponen una amenaza, porque, como ha ocurrido con la mayoría de los inventos, la inteligencia artificial puede utilizarse para fines buenos o malvados. Los gobiernos deben colaborar con el sector privado para limitar los riesgos” (2023, párr.45)

La observación de utilidad a la que alude Gates nos adentra en la pendiente sobre los dilemas éticos que puedan generar pugna entre valores y creencias que se nos atraviesan en la vida, y sobre las que nos sabemos qué decisión tomar ante dos situaciones antagónicas que puedan presentarse en determinado entorno social, real y virtual.

Canto-Sperber parte de una interrogante de corte moral para explicar estos dilemas. A saber:

¿Qué es exactamente un dilema moral? Nos vemos con frecuencia confrontados a las elecciones morales difíciles. Entre dos acciones que son imposibles de llevar a cabo a la vez, no llegamos a saber cuál es la opción que constituye nuestro deber, la que es moralmente obligatoria (2001, p. 439).

A pesar de esto, Gates siempre se coloca más allá de estos dilemas éticos, porque va por el impulso y arrojo de valores de progresos lineales; de manera unidimensional sólo presenta un rostro productivo de desarrollo empresarial, educativo, ambiental y social, sobre todo en materia de salud y descubrimiento de nuevas vacunas.

No obstante, reconoce el descontrol y las amenazas de la IA, aunque para él no son urgentes dado los avances en los últimos meses que ha tenido la inteligencia artificial débil; sin embargo, esto no deja de generar inquietud y de ser objeto de preocupación, en vista de los conflictos bélicos en que se encuentra sumergida la humanidad.

Ante la posibilidad de que la IA pudiera descontrolarse, Gates lanza al fuero la siguiente pregunta: “¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes de los nuestros o sencillamente dejar de preocuparse por nosotros? Es posible, pero ese problema no es más urgente hoy que antes de los avances en IA de los últimos meses” (Párr.46).

Los dilemas éticos no son tan fáciles de resolver como parecen, porque se mueven en relaciones complejas de poder cibernético que se tornan claroscuro en las luchas por el control de la IA por parte de las principales potencias militares y tecnológicas, como son: China, Estados Unidos, Rusia, la India y Europa. Estas potencias están conscientes de que el dominio de esta inteligencia implica dominio del planeta.

A mediados de la primera semana de mayo 2023, el filósofo Yuval Noah Harari, se movió entre un enfoque transido y de incertidumbre, con relación a lo plasmado en un artículo para The economist, sobre la IA, que deja en duda si fue él o la IA que lo escribió: "Hablamos del posible fin de la historia humana”.

Duda que se despeja por el conocimiento que tenemos sobre sus obras, y que lo único que puede hacer el dispositivo como el ChatGPT es hackearle parte de su discurso. En dicho escrito expresa:

Todavía estamos a tiempo de regular las nuevas herramientas de la inteligencia artificial, pero debemos actuar con rapidez. Las armas nucleares no pueden inventar armas nucleares más potentes, pero la inteligencia artificial sí que puede crear inteligencia artificial exponencialmente más potente. El primer paso crucial es exigir rigurosos controles de seguridad antes de que las potentes herramientas de la inteligencia artificial salgan al dominio público (Harari, 2023, Párr.19).

 

Sin ser pesimista, optimista ni mucho menos catastrofista, en las relaciones de poder de control virtual y real planetario las principales potencias del mundo y cibermundo desde hace un tiempo están viviendo e invirtiendo de manera acelerada en guerra y ciberguerra, no están al igual que las empresas de IA, para temas éticos. Lo que no significa que dejemos de resistir y luchar por la ética en la IA.

Desde hace unos años he venido reflexionando sobre los signos de los tiempos transidos y cibernéticos, los cuales Harari sitúa con relación a la IA y nos dice que estamos a tiempos para su regulación.

Pregunto, ¿Se podría lograr tal regulación en medio de una amenaza de posible conflagración planetaria?

En la contienda militar entre Rusia y Ucrania se han comenzado a utilizar sistemas de software de IA, tales como los vehículos aéreos no tripulados o drones, los cuales vuelan de manera autónoma con capacidad para tomar decisiones en tiempo real y llevar misiones puntuales vinculadas a la cibervigilancia y la ciberseguridad. El reconocimiento facial que ejecuta la IA sirve para rastrear a individuos en tiempo real y todo lo que tiene que ver con la desinformación y manipulación de esta.

Los avances de los últimos meses en IA involucran al sector militar. No es una casualidad que las principales potencias mundiales lleven a cabo un acelerado rearmes de destrucción masivas que involucra armas nucleares, biológicas y químicas con que las potencias estimulan el apetito desenfrenado de poder experimentar con dispositivos de destrucción masiva en la guerra y ciberguerra (Rusia y Ucrania son testigos fehacientes de ello). Muchas de estas armas en sus acciones apuntan a ser más autónomas, sofisticadas y con diseño inteligente, algo propio de la ciberguerra. El lenguaje de la guerra se va alimentando de la IA, lo cual no significaría el cambio de una época sino el fin de todas.

A esta reflexión le rehúye el ChatGPT de software virtual.

Traducción en la https://www.lavanguardia.com (02/04/2023). ”La edad de la inteligencia artificial ha comenzado”: https://www.lavanguardia.com/tecnologia/20230402/8871425/edad-inteligencia-artificial-comenzado.html. ( Recuperado de URL. 02/04/2023).