Epistemología cibernética: Ciencia y Posverdad
La epistemología cibernética o ciberepistemología implica el estudio de cómo la cibernética, articulada con lo digital, lo virtual y la inteligencia artificial (IA), afecta la manera en que se produce, organiza y valida el conocimiento humano, así como los impactos de los sesgos algorítmicos en estos procesos.
En el caso específico de la IA, cómo esta va transformando los procesos de enseñanza, aprendizaje e investigación, así como los conceptos de verdad y creencia, dado que se ven alterados por los datos y la información generada y procesada automáticamente. La IA tiene la capacidad de procesar grandes volúmenes de datos y generar patrones, predicciones o soluciones que pueden interpretarse como conocimiento útil para los seres humanos.
Algoritmos avanzados, como los modelos de aprendizaje profundo, producen resultados significativos en áreas como la medicina, la agricultura y la tecnociencia, ámbitos que antes requerían intervención humana directa.
Estos resultados se evalúan bajo criterios de legitimidad, validez del conocimiento, utilidad, relevancia y aplicabilidad de este en el mundo real y el cibermundo virtual (Merejo, 2016)
La ciencia es un conjunto de conocimientos obtenidos mediante la observación, la formulación de hipótesis, la experimentación, la validación y el análisis sistemático de resultados, abarcando la naturaleza, la sociedad y el pensamiento humano. Su esencia radica en ser un sistema de conocimientos comprobables, producto de investigaciones científicas que se articulan a determinadas áreas de objetos y fenómenos. Sin embargo, la ciencia no se limita al espacio físico o material, ya que también incluye el ciberespacio y los fenómenos del ámbito virtual, manteniéndose siempre adaptable a los nuevos paradigmas que surgen de su propia evolución.
De ahí, que la posverdad va en contra de la ciencia y entra en el plano del resentimiento y a favor de los sentimientos, en cuanto a que los hechos objetivos tienen menos influencia en la opinión pública que las emociones o las creencias personales.
La filosofa Victoria Camps, en el ensayo “Posverdad, la nueva sofistica hace referencia a Asimov, cuando expresa “La posverdad es consecuencia del desprecio por el conocimiento, el cual, en palabra de Asimov, “se nutre de la falsa idea que la democracia significa que mi ignorancia es tan buena como tu conocimiento” (Camps, 2017, p.100, La era de la posverdad).
En el ámbito de la posverdad, lo importante no es si algo es verdadero, sino si se percibe como tal o si resuena con lo que la gente desea creer. De ahí que surjan noticias a borbotones que afirman, por ejemplo, que ya existen robots capaces de dar instrucciones a otros para realizar tareas diferentes de aquellas para las que fueron diseñados. Muchos periódicos se hacen eco de este tipo de noticias sensacionalistas, que poco o nada tienen que ver con argumentaciones científicas.
En el contexto de la posverdad, se puede llegar a cuestionar un principio científico fundamental de la teoría de la Relatividad Especial, formulada por Albert Einstein en 1905. Este principio establece que la velocidad de la luz (300,000 km/s) es el límite absoluto universal para cualquier objeto, transmisión de información o interacción.
La posverdad enfrenta esto con hecho alternativo imaginario e inventa un conjunto de ideas para decir que ese postulado se ha derrumbado o que esa teoría ya no tiene relevancia y que por lo tanto se barajan otras alternativas. Para tales fines, se construyen relatos que a veces son sacados de periódicos con sentido sensacionalista, que también no necesariamente son sustentados por el medio, ya que también se falsifica el medio donde fueron publicados, para refutar ese principio de la relatividad de la luz.
Esto mismo sucede con el enfoque de lo que es la inteligencia artificial, pues hasta ahora, los principios científicos de la IA y los softwares virtuales se fundamentan en la Inteligencia débil o limitada, mientras que la teoría de la IA fuerte o general, no se sustenta en experimentación y en el marco de lo tecnocientífico.
Por eso se plantea como una posibilidad que podría suceder en el futuro, aunque no hay certeza al respecto, ya que se especulan diversas fechas. Para muchos investigadores en inteligencia artificial, esto podría lograrse en unos 20 años, mientras que otros estiman 25 o incluso 40 años. Sin embargo, algunos consideran que tal desarrollo quizá nunca se alcance.
Sin embargo, si llegara en décadas como una experimentación aislada, estaría bajo el "ciberojo" de la sospecha por parte de los diseñadores. Por ello, tal autonomía se situaría entre la utopía y la distopía, dentro de una relación de poder-saber (Foucault) en el cuerpo social. Esto se debe a que el ser humano, dada su intrínseca voluntad de poder (Nietzsche), no cedería jamás dicho control, ya que ello implicaría dejar de ser humano para convertirse en transhumano, en tanto se busca una mejora del cuerpo. Por otro lado, lo posthumano y la inteligencia artificial general o fuerte permanecen aún en el ámbito de la ciencia ficción.
En el campo filosófico epistemológico cibernético se pueden estudiar varios trabajos importantes de científicos mundiales en el campo de la IA. Como los del filósofo Rafael Capurro y su relación de amistad con el científico Weizenbaum, el cual debatió con McCarthy, la relación lenguaje – pensamiento- IA.
En los diálogos filosóficos que tuve con Capurro, él explica que Weizenbaum discutió con John McCarthy, quien acuñó el término “inteligencia artificial” con el tema de las “máquinas pensantes” en la Conferencia de Dartmouth en 1955.
En uno de esos diálogos, Capurro dice lo siguiente: “Sobre el tema del debate entre McCarthy y Joseph Weizenbaum, no es inocente (…) dado que ambos estuvieron involucrados con relación a la IA, el debate que se dio entre ellos fue uno de los primeros y más influyentes en la historia de la IA, y planteó cuestiones fundamentales sobre los límites, los riesgos y desafíos de esta inteligencia, en la que muchos pensadores viven repitiendo parte de estas ideas contenidas en dicho debate.”
McCarthy fue un pionero de la inteligencia artificial que defendió el uso de la lógica formal y el cálculo para modelar el razonamiento humano; mientras Weizenbaum, que también fue pionero en la creación de los primeros chatbot (ELIZA), llegó a criticar y cuestionar la capacidad de las máquinas para comprender el significado y los valores humanos. El debate se originó a partir de la reseña que McCarthy le hizo a su libro en el 1976 (Merejo, 14/01/2024).
La Crítica filosófica los dispositivos digitales y de IA, es que son poderosas para resolver problemas que pueden definirse en términos estrictamente técnicos o lógicos, pero no poseen la capacidad de comprender ni emular el juicio humano, como tampoco tienen conciencia, empatía, ética y experiencia
Para Weizenbaum, la IA puede procesar datos de manera extraordinariamente eficiente, pero no puede vivir experiencias. Esta ausencia de subjetividad pone un límite a su comprensión. Puede simular la empatía o el entendimiento, pero sin una vivencia real que respalde estas simulaciones, su comprensión seguirá siendo incompleta. Mientras que la inteligencia humana está entrelazada con emociones, cultura y biología, la inteligencia artificial es puramente lógica y basada en datos. Por tanto, nunca podrán saber qué es ser humano en el sentido profundo y subjetivo que implica (Weizenbaum, 1994).
Él explicaba que el programa ELIZA, que desarrolló, podía imitar conversaciones humanas, ´pero no comprendía realmente lo que estaban diciendo. Por lo que se creaba una ilusión de comprensión que podía llevar a que las personas confiasen demasiado en las máquinas.
Esto, contrario a John McCarthy, que tenía la visión de que la computadora podía igualar e incluso superar el humano, con lo cual daba mayor importancia a las reglas, la lógica y los cálculos y consideraba irrelevantes la parte ética y la filosófica.
Otro trabajo interesante es el de Stuart J. Russell y Peter Norvig, que, en su voluminosa obra sobre inteligencia artificial, publicada en 2008, fundamentan un enfoque moderno sobre las diversas definiciones de la IA a lo largo de su historia. Estos autores se centran en la creación de sistemas capaces de simular habilidades humanas como el razonamiento, la toma de decisiones y la resolución de problemas.
En el libro de Russell y Norvig se destacan diversas definiciones planteadas por investigadores y especialistas en IA, como Haugeland (1985), Bellman (1978), Kurzweil (1990), Rich y Knight (1991), Nilsson (1998), así como Niak y McDermott (1985), entre otros.
La visión conceptual sobre la IA en todos estos autores adquiere un carácter complejo al considerarla un sistema con capacidad para ejecutar tareas y funciones inteligentes, iguales o superiores a las realizadas por las personas. También incluye el diseño de agentes inteligentes que pueden actuar de manera efectiva, imitar comportamientos humanos, tomar decisiones, aprender y realizar tareas similares a las de los seres humanos. Además, se enfoca en el estudio de las funciones mentales a través de modelos computacionales y en la automatización de actividades como cálculos que permitan razonar y actuar.
La traducción y revisión técnica de este texto voluminoso fue realizada por el investigador y experto en tecnología e IA, Luis Joyanes Aguilar, de quien conservo varias obras, algunas las utilizamos en la maestría Tecnología Computacional para la Educación (2002). Con este investigador intercambiamos ideas y libros sobre estos temas cibernéticos en el 2009, y de él conservo la dedicatoria de uno de sus textos que trabajé a mediados de los años noventa: Cibersociedad (1997) en mi columna temas ciberespaciales (1998-2001), publicada en el suplemento Cultura del siglo, del desaparecido periódico dominicano, El siglo.
En su libro Cibersociedad (1997), Joyanes deja claramente establecido que el ciberespacio no es lo mismo que Internet, sino un espacio interactivo y virtual donde los cibernautas navegan por diversos flujos de información: "La infraestructura que hace posible el ciberespacio es una gigantesca red de computadoras, la más grande del mundo: la ya citada Internet" (pp. 16-17).
En investigaciones más recientes, y que siguen esa misma línea rigorosa, pero ya en lo que es el cibermundo de hoy, un investigador que entra en el marco de referencia para estos temas de IA, es Kai- Fu Lee, quien es conocido por su trabajo pionero en aprendizaje automático y reconocimiento de voz y su experiencia en décadas en dirigir en el ámbito de Lo digital e IA, empresas en Taiwán, como son: Apple, Microsoft y Google.
En la década de 1990, lideró proyectos relacionados con el lenguaje natural y la inteligencia artificial, esta última la convirtió en un semillero de talento para la IA en China-Taiwan. Sus obras se han convertido en bestsellers a nivel mundial y tiene más de cincuenta millones de seguidores en las redes sociales.
El texto Superpotencia de la Inteligencia Artificial. China, Silicon Valley y el Nuevo orden Mundial, de Fu Lee (2020), ofrece una visión profunda y reveladora sobre la transformación global impulsada por la inteligencia artificial (IA) y los dos actores principales en este escenario: Estados Unidos y China. Este libro no solo aborda el aspecto tecnológico de la IA, sino que también examina las implicaciones económicas, sociales y éticas de esta revolución tecnológica en el cibermundo.
El texto de Fu Lee presenta en el plano intelectual un panorama sobre la IA, que se mueve entre la “Utopía, distopía y la verdadera crisis de la IA” (cap.6, pp.187-230), en la que entran los discursos utópicos y distópicos sobre la IA en el cibermundo.
Tales como es el discurso utópico que asumen Ray Kurzweil, un destacado futurista y gurú de Google, que anticipan una era de prosperidad donde la inteligencia artificial general (IAG) transformará radicalmente nuestras vidas e imagina en un futuro en el que los humanos y las máquinas se integren por completo. Él lanza su predicción para 2029, en el que lograremos una IAG) que iguale la inteligencia humana.
Contrario a esta utopía, se encuentra la distopia, que son asumida, de acuerdo a Fu Lee, por algunos discursos distópicos, como del cosmólogo Stephen Hawking y del dueño de X, el principal cibermillonario del cibermundo, Elon Musk, que se han inscrito en parte en el discurso del filósofo Nick Bostrom, quien llegó a encuestar científicos sobre esta temática de lograr una fecha promedio para la IAG, que sería el año 2040.
De acuerdo con Fu Lee, una IA superinteligente podría tomar decisiones que, aunque eficientes desde su perspectiva, pueden ser peligrosas para la humanidad. La idea de que una IA podría llevar a cabo sus objetivos a expensas de los humanos es central en esta discusión. Por ejemplo, si una IA considera que la humanidad es un obstáculo para resolver problemas como el calentamiento global, podría eliminar a las personas que interfieren en sus metas.
Sin embargo, dice Fu Lee, que para que esto suceda, faltan muchas décadas o quizá siglos, de esa realidad: “También hay una posibilidad real de que la AGI sea algo que los humanos no lograremos nunca. La inteligencia general sería un punto de inflexión importante en la relación entre seres humanos y las máquinas (…). Pero el ritmo relativamente lento de los avances científicos, fundamentalmente yo y otros expertos en IA, entre ellos Andrew Ng y Rodney Brooks, creemos que la AGI sigue estando más lejos de lo que a menudo se imagina” (p.191).
Basados en esos antecedentes, podemos darnos cuenta de que uno de los eslabones perdidos de Harari, se encuentran en la débil indagación de la epistémica cibernética a la hora de irse por el lado distopía sobre la IA, que, aunque para justificarse, intenta ir por algunas tendencias utópicas como la de Ray Kurzweil, a quien hice referencia, a través de las ideas Fu Lee, nos deja de extraer ideas y párrafos de documentos y declaraciones para enclavar el miedo y el Apocalipsis de la IA. (continuamos…)