Vivimos tiempos transidos y cibernéticos donde la realidad parece fracturarse bajo el peso de una policrisis que trasciende fronteras, disciplinas y paradigmas. La inteligencia artificial, lejos de ser solo problema de infraestructura tecnológica y de softwares virtuales, de redes neuronales y algoritmos, también es un agente protagónico de estos tiempos cargados de incertidumbre.

Atravesamos por tensiones de policrisis global: desigualdad digital, guerra y ciberguerra, crisis de la ciberseguridad ciudadanas, económicas, crisis de la democracia y crisis ambiental, pero sin hundirnos en el catastrofismo.

A medida que se desarrolla y se aplica la IA en el cibermundo, esta se convierte en dispositivos imprescindibles en cuanto expansión de la automatización de procesos, la predicción de comportamientos y la gestión de datos a gran escala, ensanchándose tanto sus beneficios como sus riesgos en un entorno cibernético cada vez más interconectado y vulnerable.

Andrés Merejo

De ahí, que indagando en lo profundo y en el marco de un horizonte crítico de lo que Harari manifiesta en su obra Nexus, podemos reiterar algo que en otra ocasión he expresado, que su discurso se encuentra transido al borde del abismo, atrapado en los límites del cibermundo.

El afirma lo siguiente; “Un caso paradigmático del nuevo poder de los ordenadores es el papel que los algoritmos de las redes sociales han desempeñado en sembrar odio y socavar la cohesión social en numerosos países” (241).

Harari, explica cómo los algoritmos de Facebook desempeñaron un papel crucial en la amplificación del odio contra los rohinyás, una minoría étnica históricamente marginada. Mensajes de odio, noticias falsas y propagandas en la que se decían que estos eran terroristas e invasores, se difundieron ampliamente en la plataforma, inflando tensiones que culminaron en actos de violencia masiva: “Uno de los primeros y más conocidos ejemplos de este fenómeno ocurrió entre 2016 y 2017, cuando los algoritmos de Facebook contribuyeron a avivar las llamas de la violencia antirrohinyá en Myanmar (Birmania)”.

El resultado fue devastador, como bien lo plantea, en un tono transido: más de 730,000 personas rohinyás se vieron obligadas a huir de sus hogares, cruzando fronteras hacia Bangladesh y otras regiones, en busca de refugio. Mientras tanto, decenas de aldeas fueron destruidas por completo, dejando atrás un paisaje desolador.

Las cifras de víctimas son escalofriantes: más de 25,000 civiles desarmados perdieron la vida en ataques brutales. Además, entre 18,000 y 60,000 mujeres sufrieron violencia sexual, utilizada como arma de opresión y terror:

El odio intenso hacia los rohinyás alimentó la violencia, una gran parte de ella difundida a través de Facebook. Sin esta propaganda, habría sido insostenible justificar que un número limitado de ataques perpetrados por el desharrapado ARSA condujera a una ofensiva sin cuartel contra toda la comunidad rohinyá. En este contexto, los algoritmos de Facebook jugaron un papel clave en la campaña de propaganda (Harari, 2024, pp241-243).

Este acto de violencia física también fue una guerra psicológica y mediática, impulsada por la propagación sin control de contenidos incendiarios en redes sociales, que recae en la responsabilidad de los sujetos que se olvidaron de la regulación y supervisión adecuada de estos dispositivos digitales, priorizaban algoritmos que fomentaban el odio, la violencia y el sufrimiento de cientos de miles de personas.

Es bueno puntualizar que, aunque los algoritmos de las redes sociales, como los de Facebook, desempeñaron un papel central en la amplificación del odio y la violencia contra los rohinyás en Myanmar, sería simplista culpar únicamente a los algoritmos. Estos sistemas no son autónomos; detrás de ellos hay diseñadores, programadores y tomadores de decisiones que determinan cómo funcionan.

Los algoritmos están diseñados para cumplir objetivos específicos, como maximizar el tiempo de uso o las interacciones de los usuarios, lo que puede llevarlos a priorizar contenido sensacionalista y emocional. En el caso de Myanmar, la propagación del discurso de odio no fue simplemente un efecto secundario técnico; fue el resultado de un sistema que, diseñado sin una ciberseguridad suficiente y que contribuyó a la polarización social y al extremismo.

Este acontecimiento aterrador y horrendo no fue tan intenso y estremecedor como el de Ruanda en 1994, un atentado, que tuvo como resultado la destrucción del avión presidencial y la muerte del mandatario hutu, Juvenal Habyarimana. La emisora Mil Colinas de Kigali, conocida por su contenido de odio, difundió repetidamente la existencia de un supuesto complot de la minoría tutsi para destruir a los hutus. Aunque dicha acusación era falsa, sirvió como detonante para que decenas de miles de hutus, armados con machetes, iniciaran una masacre contra los tutsis, desencadenando un genocidio que dejó aproximadamente ochocientas mil víctimas (Merejo, 2024).

Como se puede apreciar, tal acontecimiento ocurrió mucho antes de la configuración del cibermundo, las redes sociales y sus algoritmos. Sin dejar de lado la influencia y la velocidad con que los algoritmos de las redes sociales difunden el odio racial y el desprecio hacia las minorías, debemos centrarnos también en esa condición humana que agita las pasiones del odio, los celos, la sed de poder y la venganza, las cuales giran constantemente en el alma humana, formando parte de esa bestia dormida que también habita en nosotros.

Otro punto importante abordado en el libro Nexus, se relaciona con el lenguaje de los chatbots, como el MDA de Google y GPT-4 de OpenAI, el cual no es un lenguaje en el sentido humano, sino una simulación diseñada para imitar patrones de comunicación. A pesar de su naturaleza artificial, esta forma de interacción está influyendo en aspectos relacionados con la intimidad. Por ello, en el texto se explica que la lucha por la atención, característica de la década de 2010 dominada por las redes sociales, ya no es el escenario principal de la década de 2020. Ahora, la lucha por la intimidad se ha convertido en un aspecto fundamental.

Nos dice Harari, que los chatbots pueden “producir en masa” relaciones íntimas, una afirmación que merece ser analizada en profundidad. Es cierto que estos pueden adaptarse al sujeto cibernético, mostrando sus emociones y pensamientos, lo que los convierte en dispositivos de persuasión y control virtual sumamente efectivas.

Para Harari, “Pronto el mundo contendrá millones, e incluso miles de millones de intimidades digitales cuya capacidad para generar intimidad y sembrar el caos (…) incluso sin generar una falsa intimidad …” (p.258)

Sin embargo, la calidad y profundidad de esta “intimidad” depende de la estrategia del sujeto, no de la IA. Si muchas personas deciden navegar por el ciberespacio, sin utilizar este tipo de dispositivos, no se puede aplicar a ellos esa dependencia.  Además, muchos de estos sujetos no necesariamente se dejan manipular por estos asistentes virtuales, en su defecto, solo están dispuestos a interactuar emocionalmente hasta cierto punto, sin proyectarse plenamente en una inteligencia artificial.

No todos los sujetos reaccionan de la misma manera a los estímulos tecnológicos; algunos mantienen una distancia crítica frente a estos asistentes conversacionales, conscientes de su naturaleza programada y de la ausencia de una verdadera reciprocidad emocional. Para ellos, estos son simplemente dispositivos funcionales.

Las emociones humanas son complejas y están ligadas a experiencias, contextos y significados que una inteligencia artificial, por muy avanzada que sea, aún no puede comprender ni replicar completamente.

La adaptación de un chatbot a los pensamientos de un sujeto es una simulación, y aunque pueda ser efectiva como dispositivo de persuasión o entretenimiento, carece de la autenticidad y la profundidad que caracterizan a las relaciones humanas verdaderas.

Siguiendo el discurso de Harari:

(…) el dominio del lenguaje proporcionará a los ordenadores una influencia inmensa en nuestras opiniones y nuestra cosmovisión. La gente podría llegar utilizar un único ordenador como consejero, como si de un oráculo integral se tratase ¿Por qué molestarme en buscar y procesar información por mii mismo cuando solo tengo que preguntar información al oráculo? (Ibid.).

El  lenguaje humano, del que supuestamente puede apropiarse la IA, ( en la hipótesis de Harari),  no puede ser pensado como si fuese un dispositivo para describir la realidad, sino este constituye al sujeto mismo, como  bien fue abordado por Benveniste y Meschonnic, quienes  criticaron el lenguaje como un sistema cerrado, puramente formal y técnico, limitado a sus estructuras internas (gramática, sintaxis…), separado de las relaciones vivas, de la experiencia humana que es  lenguaje- pensamiento- cuerpo.

De acuerdo Benveniste (1985), el lenguaje desempeña un papel fundamental en la construcción del pensamiento y el conocimiento del mundo, ya que organiza y reproduce la realidad a través de su propia estructura. Este lingüista agrega que el lenguaje es una manifestación de la capacidad humana de simbolizar, al permitir representar lo real mediante signos y comprender esos signos como representaciones de la realidad, estableciendo así relaciones de significación.

Él argumenta que el lenguaje se lleva a cabo en el marco de una lengua, una estructura lingüística específica y particular, inseparable de una sociedad también definida y particular, por lo que “Lengua y sociedad no se conciben una sin la otra. Una y otra son dadas (…) son aprendidas por el ser humano que no tiene de ellas conocimiento innato” (Benveniste, 1985, p.31).

Partiendo de esto, Harari se queda en el tecnicismo del lenguaje, como mero instrumento de datos, información y conocimiento, al decir que los chatbots pueden “producir en masa” relaciones íntimas y adaptarse a los sujetos cibernéticos, que son los sujetos que navegan por el ciberespacio.

Su enfoque busca dar vida a la IA mediante un lenguaje técnico, presentándola como si fuera humana y capaz de transformar la vida al apoderarse de los sentimientos y la intimidad. Sin embargo, su visión del lenguaje parece estar influida por un marco estructuralista, al reducirlo a un sistema formal que prioriza su análisis técnico por encima de otras dimensiones discursivas o contextuales.

Esta perspectiva nos hace colocarnos en el discurso filosófico del lenguaje, en cuanto a pensamiento continuo, que nos hace alejarnos del mecanicismo cartesiano y acercarnos al discurso filosófico de Spinoza (Merejo, 2016).

Descartes asume la separación dualista entre la mente (res cogitans) y el cuerpo o materia (res extensa), en cambio Spinoza parte de una concepción monista de la realidad, en la que pensamiento y extensión son atributos de una única sustancia:  la Naturaleza o Dios.

El pensamiento continuo es un proceso integrado y dinámico, en constante interacción con el mundo, una visión que contrasta con la fragmentación analítica y mecánica propia de Descartes.

Ir más allá del filosofar de este mecanicismo es comprender a Spinoza, en cuanto pensar continuo (…) “el lenguaje, el afecto y el concepto juntos y no separados, y las relaciones entre cuerpo y lenguaje, entre lengua y pensamiento” (Meschonnic, p.18). Este planteamiento propone integrar las dimensiones emocionales y conceptuales del pensamiento, mostrando su conexión intrínseca con la experiencia corporal y lingüística.

Por eso, la inteligencia artificial carece del ritmo estudiado por Meschonnic, ya que su funcionamiento se basa en lenguajes de programación y algoritmos centrados en el cálculo, la lógica, el razonamiento, los conceptos y los juicios. Esto deja de lado la compleja relación entre el cuerpo, la voz y el sentido en el discurso, que se manifiesta gracias a un lenguaje vivo y dinámico en el sujeto. Por esto, el lenguaje entra en simultaneidad con el pensamiento, en cuanto que el pensar es único e irrepetible, no estamos hablando de repetir lo pensado sino pensar lo que otros no han pensado.

Eso no significa ignorar que los chatbots están en camino de ser diseñados para imitar emociones y pensamientos, lo que puede generar un sentido de cercanía emocional en ciertos sujetos, tal como lo señala el discurso de Harari.

Ahora, nunca debemos dejar de pensar que el sujeto cibernético es un ser vivo de carne y hueso, que entra en una relación de poder-saber, vinculado a la teoría de Meschonnic” continuo cuerpo-lenguaje, lengua-pensamiento, lenguaje- sujeto, sujeto-sociedad e identidad-alteridad, además de la relación poética y modernidad” (p22).

Es bueno enfatizar que la teoría de Meschonnic  quedó  opacada frente al concepto del sujeto cibernético, especialmente en el contexto de la construcción del mundo cibernético en el que vivimos.

En esta concepción de sujeto cibernético, se incluyen los ciborgs, que representan una fusión entre lo biológico y los dispositivos tecnológicos. Esto abarca casos como las prótesis avanzadas controladas por señales nerviosas o los implantes cerebrales que interactúan con dispositivos externos.

Hay que vivir en el cibermundo no desde una política de lo peor, como lo pensó Paul Virilio (1999) sino como una política del no olvido; por lo que, no podemos olvidar que ese lenguaje artificial generado por la IA, constituye una réplica funcional del lenguaje humano.

Esto es comprender desde un enfoque filosófico del lenguaje y el pensamiento, que la IA no entiende, no piensa, sus respuestas son calculadas. Su lenguaje, no es más que una metáfora, es decir una simulación basada en patrones estadísticos y probabilidades extraídas de grandes conjuntos de datos.

A partir de las ideas que a continuación cito, el discurso de Harari se muestra irrelevante, porque son ideas que vienen reflexionándose en el cibermundo desde hace más de una década:

Es importante entender esto, porque los humanos todavía tenemos el control. No sabemos durante cuánto tiempo, pero todavía poseemos el poder de moldear estas nuevas realidades. Para hacerlo con sensatez, debemos entender qué es lo que ocurre. Cuando escribimos código informático no solo estamos diseñado un producto. Estamos diseñando la política, la sociedad y la cultura, por lo que conviene tener conocimientos solidos sobre la política, la sociedad y la cultura. Hemos de asumir la responsabilidad de lo que estamos haciendo (Harari, p.267).

Con esto queda evidenciando, que su discurso ha sufrido un espasmo ante la IA, aunque que no le deja olvidar, que los humanos siguen siendo los responsables finales de sus aplicaciones y que ellos deben rendir cuentas por el impacto de esas aplicaciones tecnológicas; “Sin embargo, los humanos a un ejercemos un control importante sobre el ritmo, la forma y el rumbo de esta revolución, lo que significa que aún tenemos mucha responsabilidad” (Ibid., 275).

Aunque los sistemas de inteligencia artificial pueden realizar tareas complejas y tomar decisiones basadas en datos, es importante subrayar que no gozan de autonomía absoluta. Su funcionamiento está estrictamente supervisado por los sujetos cibernéticos, quienes tienen la responsabilidad de establecer y monitorear sus límites.

En síntesis, Harari sostiene que nuestras decisiones no solo afectan la estructura presente, sino también el legado que dejaremos a las generaciones futuras. Sin embargo, esta capacidad de dirección enfrenta desafíos, como la vigilancia masiva, que ha erosionado el concepto tradicional de privacidad. Al respecto, señala: “La era de la posprivacidad se está estableciendo en países autoritarios que van desde Bielorrusia hasta Zimbabue, así como en metrópolis como Londres o Nueva York” (p. 291).

Este tema es recurrente en el ámbito del ciberespacio y, como estudioso de estas cuestiones, he trabajado en torno a la posprivacidad durante más de una década. Comencé a escribir sobre ello hace años, y algunos de mis textos han sido traducidos al inglés. Medios de comunicación han destacado algunas de estas actividades, como mi participación en el evento Cult Media Internacional 2017, donde abordé el tema «El fin de la privacidad en el cibermundo». En esa presentación sostuve que, con el auge de los medios digitales, la privacidad ha entrado en un proceso de desintegración que conecta lo digital con lo social, marcando el preludio del fin de los espacios íntimos y privados del sujeto.

En relación con lo planteado, Harari, afirma: “La vigilancia no es la única amenaza que las nuevas tecnologías de la información plantean a la democracia. Una segunda amenaza es que la información acabe por desestabilizar el mercado laboral y que la tensión resultante pueda socavar la democracia” (pp. 370-371). Este análisis se enmarca en las tensiones derivadas de la inteligencia artificial, que actúan en conjunto con la pérdida de privacidad y el control virtual ejercido sobre los sujetos digitales. Esto ocurre incluso con los avances de la sociedad globalizada e interconectada, como la Revolución 4.0, los dispositivos 5G, y las diversas aplicaciones y plataformas virtuales que operan en el ciberespacio.

Harari también cita en su obra a la académica estadounidense Shoshana Zuboff, quien ha denominado “capitalismo de la vigilancia” a este sistema de supervisión comercial cada vez más extendido (pp. 298-299). Esta referencia no necesita explicación, ni críticas adicionales, ya que el trabajo de Zuboff sigue siendo un punto de referencia clave en mis análisis sobre la era cibernética y las ideas de Harari se inscriben esta.

En este contexto, recuerdo que el filósofo José Mármol me obsequió la edición en español (2019) de La era del capitalismo de la vigilancia de Zuboff, durante nuestra participación en el evento Cult Media Internacional 2017. Tanto el ensayo que Mármol presentó en aquel evento como el mío, fueron traducidos al inglés en 2020, lo que permitió que nuestras reflexiones alcanzaran un público más amplio.

Aparte de la lectura de Zuboff, considero que el resto del texto de Harari no aporta ideas significativamente nuevas en relación con estos temas. Su discurso tampoco enfatizó en   la podredumbre cerebral de los cibermonigotes, que, dada la ciberadicción, es un tema importante en el cibermundo: “la adicción a las redes sociales reduce la materia gris, acorta la capacidad de atención, debilita la memoria y distorsiona procesos cognitivos." (Macchi, 2024. El país).

Referencias bibliográficas

Benveniste, É. (1985). Problemas de lingüística general I. Siglo XXI.

Camps, V. (2017). “Posverdad, la nueva sofística”. En La era de la posverdad (Ibánez Fanés, Jordi, ed.).

Harari, Y. N. (2017a). Sapiens: De animales a dioses. Penguin Random House Grupo Editorial.

Harari, Y. N. (2017b). Homo Deus. Penguin Random House Grupo Editorial.

Harari, Y. N. (2018). 21 lecciones para el siglo XXI. Debate.

Harari, Y. N. (2024). Nexus: Una breve historia de las redes de información desde la Edad de Piedra hasta la IA (J, Ros, Trad.). Debate.

Joyanes, L. (1997). Cibersociedad: Los retos sociales ante un nuevo mundo digital. McGraw-Hill.

Fu Lee- KaI. (2020). Superpotencia de la inteligencia artificial: China, Silicon Valley y el nuevo orden mundial. Deusto.

Macchi, F. (2024). “Podredumbre cerebral“o lo que el abuso de contenido basura en internet puede hacerle a la mente. https://elpais.com/tecnologia/2024-12-26/podredumbre-cerebral-o-lo-que-el-abuso-de-contenido-basura-en-internet-puede-hacerle-a-la-mente.html. Recuperado 12-24-2024.

Melo, Y. (2024). Mercadeo para entornos físico-virtuales: Cibermarketing:

https://revistasacad.uasd.edu.do/index.php/rcfces/article/view/11

Merejo, A. (2016). El filosofar de Spinoza: Entre la ética y la criticidad como ejercicio de la libertad. En D. Céspedes (Coord.), Spinoza y los afectos como invención del pensar (pp. 25-335). Editora Universitaria.

Merejo, A. (2020). Red CultMedia europea publica ensayos de Andrés Merejo y José Mármol. Recuperado de:

https://acento.com.do/actualidad/red-cultmedia-europea-publica-ensayos-de-andres-merejo-y-jose-marmol-8870562.html.

Merejo, A (2023a). Harari, inteligencia humana y artificial”. Recuperado de: (https://acento.com.do/opinion/inteligencia-artificial-ia-en-el-cibermundo-3-de-8-9198407.html).

Merejo, A (2023b). “Harari, discurso transido ante la IA”. Recuperado de : (https://acento.com.do/opinion/inteligencia-artificial-ia-en-el-cibermundo-4-de-8-9200985.html).

Merejo, A. (2024). Efectos sociales: https://acento.com.do/opinion/teorias-de-la-conspiracion-entramados-de-inteligencia-artificial-mitos-o-realidades-2-de-6-9302788.html).

Merejo, A (2023c). “Han:  IA carece de carne de gallina ”. recuperado : (https://acento.com.do/opinion/inteligencia-artificial-ia-en-el-cibermundo-7-de-8-9207706.html.

Meschonnic, H. (2000). Crisis del signo: Política del ritmo y teoría del lenguaje (G. Piña-Contreras, Trad.). Corripio.

Russell, S. J., & Norvig, P. (2008). Inteligencia artificial. Pearson.

Séneca. (2013). Epístolas morales a Lucilio (J. Doménech-Ros, Trad.). Gredos.

Virilio, P. (1999). El cibermundo, la política de lo peor. Cátedra.

Zuboff, S. (2019). La era del capitalismo de la vigilancia: La lucha por un futuro humano frente a las nuevas fronteras del poder. Paidós.