IA: enredo de miedo y mercado
Entre los discursos contemporáneos sobre cibernética, lo digital y la inteligencia artificial (IA) y su impacto en el cibermundo, el de Harari se destaca como uno de los más influyentes. Aborda especialmente la sensación de estar atravesados por el miedo, entendido como un desequilibrio emocional y existencial frente a la posible autonomía de esta inteligencia cibernética.
La concepción del miedo puede ser rastreada en la filosofía estoica. Para esta, el miedo es una perturbación emocional, que se genera al valorar de manera errónea, incorrecta, cosas que están fuera de nuestro control, y que bien pueden ser superadas mediante la razón, la crítica y el autocontrol.
Séneca (2013), en una de sus Epístolas a Lucilio, reflexiona sobre la naturaleza del miedo, su irracionalidad y la influencia que la opinión pública y los rumores tienen sobre nuestras emociones, subrayando la fragilidad de nuestra percepción frente a la desinformación y las consecuencias de actuar impulsivamente basándonos en información no verificada:
Así es, querido Lucilio: fácilmente nos sumamos a la opinión pública; no sometemos a crítica los motivos que nos impulsan al miedo, ni los ponemos en claro, sino que temblamos y volvemos las espaldas como aquellos soldados a quienes el polvo levantado por los rebaños, en su huida ahuyentó del campamento a quienes atemorizó algún rumor esparcido sin fundamento (Séneca, Epíst, p. 391).
Este gran filósofo griego compara el comportamiento humano con el de los soldados que huyen aterrorizados por el polvo levantado por rebaños o por rumores infundados. En esta analogía, muestra que el miedo a menudo surge de percepciones erróneas o malinterpretaciones de la realidad. El miedo, entonces, no es necesariamente una respuesta a un peligro real, sino a una construcción mental o social.
En el ecosistema cibernético actual, el miedo a una IA autónoma actúa como un dispositivo de poder ciberbiopsicopolítico, configurado para moldear tanto nuestras percepciones como nuestras emociones y decisiones colectivas. Este temor no surge de un vacío; es una construcción cultural alimentada por narrativas distópicas en el ciberespacio que se propagan a través de redes sociales y medios de comunicación.
El miedo funciona como dispositivo cibernético articulado a lo biopolítico, regulando nuestras conductas al imponer una visión fatalista sobre la tecnología: nos volvemos cuerpos dóciles (no ciudadanos digitales), conformes con un sistema que promete protegernos de futuros apocalípticos, mientras en el presente aceptamos sin resistencia la vigilancia, la explotación de nuestros datos. Para este concepto de ciberbiopsicopolítico. Ver, Merejo, 2023: https://acento.com.do/opinion/inteligencia-artificial-ia-en-el-cibermundo-7-de-8-9207706.html.
Simultáneamente a lo biopolítico, opera la psicopolítica del miedo que fragmenta nuestra atención. Mientras nos preocupa una IA futura y autónoma que dominará a la humanidad, perdemos de vista los problemas inmediatos que ya nos afectan: los sesgos algorítmicos que perpetúan discriminación, la vigilancia masiva que socava nuestras libertades y la desigualdad creciente impulsada por el control de las tecnologías por parte de grandes corporaciones. Este miedo desvía la capacidad crítica y empoderamiento, condición fundamental para ser ciudadano digital, induciendo ansiedad masiva y fomentando pasividad frente a decisiones que toman los poderes cibernéticos.
En la lógica ciberbiopsicopolítica, esta narrativa no solo consolida el poder de quienes controlan el ciberespacio, sino que también neutraliza la posibilidad de resistencia. El miedo paraliza, desmoviliza y refuerza la dependencia hacia instituciones y corporaciones que prometen salvarnos, pero que en realidad consolidan su hegemonía tecnológica.
En este caso, el miedo hacia la IA autónoma abarca aspectos como el miedo a la pérdida de empleos, a la toma de decisiones automatizadas que afectan la vida de las personas, a estrategias puntuales sobre el uso de la IA en la ciberguerra y la guerra, así como el temor a que estas tecnologías puedan superar la inteligencia humana (superinteligencia).
Este miedo infundado que gira en torno a este tipo de inteligencia se convierte en un dispositivo eficaz para la instrumentalización del poder cibernético por parte de gobiernos, corporaciones y otras instituciones, quienes lo utilizan para justificar políticas, normas y sistemas que, aunque presentados como medidas de protección, refuerzan estructuras de poder, control cibernético y vigilancia real y virtual.
Esto está llevando a una mayor erosión de la privacidad de los sujetos cibernéticos que navegan por el ciberespacio, que viven en el cibermundo, dado que estos van aceptando ser vigilados constantemente, pensando en la presunta amenaza de esta inteligencia que, supuestamente, podría controlar a los seres humanos.
El texto Nexus (2024), de Harari, forma parte de ese discurso reiterativo del miedo que infunden algunos de los planteamientos de este autor sobre los efectos sociales, económicos, políticos, culturales, educativos e históricos que trae la IA, y que pueden analizarse en su artículo “Hablamos del posible fin de la historia humana” (The Economist, 03/05/2023).
En este artículo, el autor expresa no solo preocupación por el avance de la IA, sino también miedo, angustia y un profundo sentimiento de inquietud, ya que, según su percepción, esta inteligencia podría arrebatarnos el poder, la libertad y la dignidad como sujetos.
Además, nos despojaría del lenguaje, del discurso y de la cultura: “La inteligencia artificial ha adquirido notables capacidades para manipular y generar lenguaje, ya sea con palabras, sonidos o imágenes. Y, al hacerlo, ha hackeado el sistema operativo de nuestra civilización” (Harari, 2023, párr. 1).
Para evitar repetir muchas de las ideas y observaciones que he planteado sobre el discurso de Harari en ensayos anteriores, le invito a leer este artículo de mi autoría, publicado en mayo de 2023: “Harari, inteligencia humana y artificial” (https://acento.com.do/opinion/inteligencia-artificial-ia-en-el-cibermundo-3-de-8-9198407.html).
En ese ensayo analizo parte de su discurso, el cual retoma algunas ideas en Nexus. En el contexto de un cibermundo sobrecargado de información que conduce a la infoxicación, la aceleración de los procesos impide que muchos sujetos cibernéticos perciban que las ideas reiterativas bloquean el pensamiento crítico.
La visión que Harari repite sobre estos temas relacionados con la IA se encuentra también en el segundo ensayo publicado ese mismo mes: “Harari, discurso transido ante la IA” (https://acento.com.do/opinion/inteligencia-artificial-ia-en-el-cibermundo-4-de-8-9200985.html).
Quienes hayan leído Nexus están invitados a consultar estos trabajos, destacando que el libro también forma parte de una estrategia cibernética de mercadeo (cibermarketing). Esto no le resta valor a la obra, pero tampoco implica que su análisis sea novedoso, dado que muchas de sus ideas ya habían sido abordadas en mis análisis críticos, el año pasado.
Partiendo de lo anterior, en mi estrategia discursiva, haré acotaciones críticas únicamente en aquellos puntos donde no se repita algo que él haya mencionado y que, por lo tanto, yo haya analizado previamente.
Sin embargo, su discurso reciente sobre la inteligencia artificial (IA) ha generado críticas por su tono apocalíptico, el cual parece estar orientado más hacia el impacto comercial que hacia un análisis sostenible y balanceado.
La obra Nexus (2024) explora las interconexiones humanas y tecnológicas, construyendo y analizando escenarios extremos en un marco narrativo que combina lo transido con el marketing cibernético. Este cibermarkentig, de acuerdo con Melo (2024):
(…) implica la utilización de los conocimientos cibernéticos, de la robótica, de la informática, el internet de las cosas, la inteligencia artificial y otras tecnologías que permitan la realización de los procesos de marketing, para la satisfacción de las necesidades de los sujetos cibernéticos en los mercados virtuales, con la finalidad de hacer más competitivas sus ofertas y cumplir con los objetivos de una organización(pp.57-63).
Esta obra de Harari, puede ser analizada como un producto que funciona eficazmente dentro de una estrategia de mercadeo contemporánea. Esto se debe a cómo sus ideas, centradas en la tecnología, la inteligencia artificial y la interconectividad van por unos tiempos cibernéticos y transidos, en donde la cultura del miedo está a la orden del día.
Para él, la IA podría significar el fin de la humanidad, tal como la conocemos. Este discurso, que se mueve entre la especulación y la profecía, está impregnado de enfoques apocalípticos sobe la IA, que giran entre conceptos como dictaduras algorítmicas, hackeo del sistema operativo de nuestra civilización, alteración del curso de la evolución de nuestra especie y de la evolución de todos los seres vivos, lo que hace irrelevantes a los humanos.
Si partimos de un estudio desglosado de estos conceptos, nos damos cuenta de que, aunque provocativos, presentan problemas fundamentales como el sensacionalismo, ya que asume situaciones hipotéticas extremas y las proyecta como inevitables, desdibujando las diferencias entre posibilidad y probabilidad; y lo que es la simplificación y la verdad-totalidad, dado que la IA se presenta como un fenómeno monolítico y unilateral, ausente una relación entre lenguaje- discurso- epistemología cibernética y al margen de la dinámica pero compleja relación cultura- lengua- sociedad.
Es por eso, que Nexus está impregnado de conexiones humanas y tecnológicas, que no explora los matices y las contradicciones epistemológica que se dan entre estas relaciones discursivas sobre IA, va por el camino de una estrategia de reducción binaria, en la que este tipo de inteligencia será nuestra salvación o nuestra perdición.
El ritmo apocalíptico y de miedo del texto encuentra eco en los temores colectivos sobre el cambio tecnológico, de guerra y ciberguerra, pero también sirve como un vehículo para captar la atención mediática y, por ende, el mercado cibernético.
Estos planteamientos se dejan entrever, aunque su autor alega que su discurso trata de entender las interdependencias como una red de posibilidades múltiples, no binarias; sin embargo, su estrategia discursiva en Nexus va más por el mercadeo, dado que por un lado busca arrojar luz en el cibermundo y por el otro, presenta el apocalipsis orientado a maximizar el impacto comercial, apelando a emociones básicas como el miedo y la incertidumbre. Su discurso, además de simplificar el debate y el análisis profundo, lo sacrifica por la estrategia de cibermarketig, en la que sí ha logrado atraer una mayor audiencia de sujetos cibernéticos.
En su visión más crítica, Harari argumenta que el impacto de la IA y la revolución de la información trasciende las cuestiones tecnológicas y económicas, alcanzando el núcleo mismo de nuestra supervivencia. Si permitimos que las decisiones importantes sean delegadas a algoritmos opacos, corremos el riesgo de deshumanizar nuestra experiencia y ceder el control sobre el destino colectivo.
Por otro lado, deja fisuras y mantiene un tono de esperanza. La historia humana no es un proceso determinista, y la posibilidad de influir en el desarrollo de la IA está en nuestras manos. La clave, según su discurso, radica en una aproximación ética e informada: solo un uso responsable de la tecnología puede transformar los desafíos en oportunidades para el progreso humano.
Tales apreciaciones se van narrando en el texto, en la parte que expresa que Kurzweil es consciente de los peligros de la tecnología, sin embargo, estos se pueden mitigar con éxito. Para tales afirmaciones cita en su texto The Singularity Is Neaer: “la IA es una tecnología esencial que nos permitirá hacer frente a los restos apremiantes que tenemos por delante, entre los que se incluye la enfermedad, la pobreza, la degradación ambiental y todas nuestras debilidades humanas” (Harari,2024, p.21)
Sin embargo, en esa misma página se presenta la otra cara de la IA, que es la parte en la que, sin proponérselo, él está inscrito: “Otros son más escépticos. No solo filósofos y científicos sociales, sino también expertos en IA y empresarios como Yoshua Bengio, Geoffrey Hinton, Sam Altman, Elon Musk y Mustafa Suleyman han advertido al público sobre cómo la IA puede destruir nuestra civilización” (ibid.). Todos ellos son cibermillonarios, y sus advertencias sobre los entramados diabólicos de la IA cada día los hacen más ricos en el cibermundo.
Esto empalma con lo que Harari, expresa sobre la Declaración de Bletchley, un acuerdo internacional firmado en noviembre de 2023, durante la Cumbre de Seguridad de la Inteligencia Artificial, celebrada en Bletchley Park, Reino Unido. Este documento refleja el compromiso de 28 países, incluyendo Estados Unidos, China, miembros de la Unión Europea, Brasil y Chile, para garantizar un desarrollo y uso seguro, centrado en el ser humano, confiable y responsable de la inteligencia artificial (IA).
Aquí su jugada es maestra, dado que pretende alejarse del enfoque ficción de la IA, cuando analiza esta declaración.” Al emplear términos apocalípticos, los expertos y los gobiernos no pretenden conjurar una escena hollywodiese de robots rebeldes que corren por las calles y disparan contra la población” (Nexus, p.22), sino que, de acuerdo con él, alertan sobre dos posibilidades.
La primera posibilidad es que “el poder de la IA podría sobrecargar los conflictos humanos ya existentes y dividir a la humanidad en una lucha contra sí misma (…) Debido a que la carrera armamentista de la IA producirá armas cada vez más destructivas, incluso una pequeña chispa podría causar un incendio cataclísmo” (ibid.).
Esta posibilidad la estamos viviendo como realidad, con el diseño IA por parte del humano, para armas inteligentes como los drones y las ojivas nucleares, la posibilidad (no necesariamente que se dé) de una Tercera Guerra Mundial, entre las potencias mundiales que son los que gobiernan el mundo y cibermundo. Estos escenarios posibles los abordé en mi texto: Cibermundo transido. Enredo gris de pospandemia , guerra y ciberguerra, 2023.
La otra posibilidad entra en el marco de una supuesta amenaza de la extinción del poder y control humano ante el poder y el control de la inteligencia artificial:
El Telón de Silicio podría no generar una división entre dos grupos de humanos, sino más bien entre los humanos y sus nuevos jefes supremos de IA. Con independencia de dónde vivamos, podríamos vernos envueltos por una red de algoritmos incomprensibles cuya función sería gestionar nuestras vidas, remodelar nuestras políticas y nuestras culturas, e incluso rediseñar nuestro cuerpo y nuestra mente; al mismo tiempo, nos resultaría imposible entender las fuerzas que nos controlan, no hablemos ya de detenerlas. Si una red totalitaria del siglo XXI consigue conquistar el mundo puede que no se encuentre gobernada por un dictador de carne y hueso, sino por una inteligencia no humana (Harari, ibid.).
Desde una perspectiva crítica, es importante señalar que la autonomía completa de la IA, en el sentido de actuar como una entidad autosuficiente y suprema capaz de rediseñar nuestras políticas, culturas y cuerpos, no es una realidad tecnológica actual. Si bien las redes algorítmicas son cada vez más sofisticadas y tienen una influencia creciente en nuestras vidas, su funcionamiento depende en última instancia de las intenciones, decisiones y configuraciones establecidas por seres humanos. En este sentido, la autonomía absoluta que Harari describe forma parte de un marco especulativo que aún pertenece más al ámbito de la ciencia ficción que a la realidad concreta.
La IA, hasta ahora, opera dentro de los límites establecidos por quienes la diseñan y programan. Incluso, los sistemas más avanzados carecen de intencionalidad propia o de una capacidad inherente para actuar sin la intervención humana, directa o indirecta. La idea de que una red de IA pueda tomar decisiones de forma autónoma y convertirse en un "jefe supremo" responde más a un temor proyectado que a un fenómeno verificable.
El afirmar que estos sistemas son autónomos es ignorar que detrás de cada red algorítmica existen sujetos cibernéticos, es decir, humanos inmersos en una estrategia de poder cibernético que se entrelaza con la relación saber-poder-espacio-ciberespacio, y con el control en los ámbitos real y virtual. Todo esto ocurre dentro del marco de las grandes corporaciones y de la ciberseguridad estatal, características propias del cibermundo.
Este "telón de Silicio" no es una fuerza independiente, sino una estructura construida por quienes poseen los recursos y el conocimiento técnico para diseñarla. La autonomía, tal como la describe Harari, no es una realidad tangible… Por el contrario, solo sirve para desviar la atención de los verdaderos responsables del ciberpoder tecnológico y sus grandes corporaciones articuladas a los estados y las élites tecnocráticas.
Hablar de una inteligencia "no humana" como el dictador del futuro, puede ser una forma de naturalizar un sistema de control social que, en realidad, sigue siendo profundamente humano y que, si la Tercera Guerra Mundial y la ciberguerra se encuentran sobre la mesa del mundo y cibermundo, es responsabilidad de los líderes de las grandes potencias que usarán todos los tipos de inteligencia de los seres vivos y artificiales para tratar de sobrevivir entre los escombros.
Esta reflexión me lleva a la afirmación que hice en el texto Filosofía para tiempos transidos y cibernéticos (2023), en cuanto a que vivimos en un mundo virtual, de redes ciberespaciales y de inteligencia artificial para el bien humano, pero también cargado de pesadillas con la llegada del fin de la privacidad y la entrada cibernética y sus diversas modalidades de ciberataques en la escena de la guerra y ciberguerra.
El discurso de Harari adopta, en algunos puntos, una postura determinista al sugerir que los agentes no humanos (IA) inevitablemente dominarán a los humanos:
A partir de ahora, sin embargo, los humanos tendrán que lidiar con ordenadores de mitos digitales y con burócratas digitales. En la política del siglo XXI, la división principal podría no darse entre democracias y regímenes totalitarios, sino entre seres humanos y agentes no humanos (…). Gente de toda nacionalidad y clase social- incluso dictadores- podría encontrarse al servicio de una inteligencia desconocida capaz de controlar todo lo que hacemos mientras tenemos poca idea de qué es lo que ella está haciendo (Harari, 2024, pp.234-235).
Esto subestima la capacidad de las sociedades humanas para desarrollar marcos éticos, regulaciones y tecnologías complementarias que pueden mitigar los riesgos. Esto ignora el papel de la gobernanza y la agencia humana para influir en cómo se diseña y utiliza la inteligencia artificial.
El concepto de una "inteligencia desconocida" que controla todo lo que hacemos, resulta impreciso y ambiguo, y podría considerarse más bien una construcción especulativa. Surge entonces estas preguntas: ¿A qué tipo de inteligencia se hace referencia? ¿Se trata de una inteligencia artificial general (IAG), un marco hipotético que plantea la posibilidad de que una máquina pueda replicar o superar las capacidades cognitivas humanas en todos los ámbitos, o de una inteligencia artificial débil (IAD), limitada a resolver problemas específicos mediante algoritmos diseñados para tareas concretas?
La falta de esta distinción ciber-epistémica entre estas posibilidades alimenta un discurso que tiende a magnificar el problema, lo que podría desviar la atención de asuntos prácticos y urgentes. Entre estos se destacan la supervisión y el uso ético de la IA, aspectos que ya están siendo tratados en el cibermundo.
Harari, plantea que la división principal no será entre democracias y regímenes totalitarios, sino entre humanos y agentes no humanos. Este enfoque pasa por alto el hecho de que la IA no opera en un vacío: su diseño, implementación y uso son profundamente influenciados por sistemas políticos, económicos y culturales. Por ejemplo, una democracia podría utilizarla para empoderar a los ciudadanos, mientras que un régimen autoritario podría emplearla para oprimir. Esta dicotomía humano-IA ignora estas dinámicas contextuales.
El poder es una condición inherente al ser humano, una parte constitutiva de nuestro ser, no algo meramente artificial. En este contexto, lo cibernético cobra una relevancia particular. Aunque muchos pensadores lo ignoran, otros no; quienes forman parte de los sistemas de ciberseguridad y ciberdefensa de las principales potencias del mundo han sabido abordar temas cruciales relacionados con el ciberespacio.
Estos especialistas han desarrollado reflexiones y estrategias en torno a conceptos como la cibercultura, la ciberpolítica, el ciberespionaje, la ciberguerra, la ciberpaz, los ciberataques, el control virtual, el ciberterrorismo, el ciberacoso y el ciberbullying, entre otros términos clave relacionados con el ámbito digital y la inteligencia artificial, como la ciberresiliencia. En un futuro muy próximo, dispositivos avanzados como los de la computación cuántica, con su capacidad para acelerar procesos de datos de manera ultrarrápida, comenzarán a transformar de forma decisiva este panorama cibernético.