Vivir-en-la-era-de-la-informacionBerlin1995
La imagen del libro Leben im Informationszeitalter es de artista Bill Viola

Andrés Merejo (AM): ¿Qué relación tuviste con el filósofo y científico Joseph Weizenbaum, creador del chatbot ELIZA, y quien llegó a refutar el enfoque epistémico de John McCarthy?. ¿Qué papel desempeñaste en esos tiempos, en sentido ético y epistémico digital?

Rafael Capurro (RC): En 1986, año de publicación de mi libro y luego tesis postdoctoral “Hermenéutica de la información especializada”, los editores de un libro pequeño volumen de la editorial Reclam, los filósofos de la técnica Hans Lenk y Günther Ropohl me preguntaron si podría contribuir con un artículo sobre el tema ética de la computación que comenzaba a investigarse desde comienzos de la década del 70. Al final de mi texto “Hermenéutica” citaba a Joseph Weizenbaum en un capítulo sobre la “socialización de la información especializada” como un crítico de la credulidad en la computación que no demonizaba esta técnica, sino que la cuestionaba críticamente, haciendo referencia a su obra “Computer Power and Human Reason: From Judgement to Calculation" (San Francisco 1976) así como a su contribución al libro editado por M.L. Dertouzos y J. Moses: The Computer Age: A Twenty-Year View (Cambridge, MIT Pro. 1980) con el título “Once More: The Computer Revolution”).

La discusión sobre el impacto social de la computación y los fundamentos éticos estaban en sus comienzos. También citaba al Prof. Norbert Henrichs (Universidad de Düsseldorf, Instituto de filosofía) quien había sido el mentor de mi tesis doctoral sobre el concepto de información (Information. Munich 1978, traducción al castellano Apeiron 2022), con las palabras “Lo que hace falta es una antropología de la información de carácter normativo es decir una ética de la información. “

El ofrecimiento de Lenk y Ropohl llegaba entonces en un momento oportuno y el resultado fue mi contribución “Aporte a la ética de la computación. Preguntas éticas sobre la sociedad de la información” en el que analizaba el pensamiento de Weizenbaum bajo los títulos: 1) Computadora y responsabilidad, 2) Privacidad y espacio público, 3) Computadora y poder (p. 259-276) (ver: http://www.capurro.de/computerethik.html).

El libro fue publicado con el título “Técnica y ética” en 1987 (“Technik und Ethik” Stuttgart 1987). La obra de Weizenbaum (1976) y de la cual hice referencia, fue un punto crítico en su pensamiento, ya que había creado entre 1964 y 1966 el programa ELIZA imitando un diálogo psicoanalítico en el estilo del psicólogo Carl Rogers.

En su repuesta a John McCarthy: "Show me a way to knowledge besides science!" (Trad.AM: “Muéstrame una forma de conocimiento además de la ciencia”).  Weizenbaum, le responde: "Can there be a way toward an authentic model of man that does not include and ultimately rest on philosophical and moral thinking?" No wonder we talk past another. (Trad. AM: ¿Puede haber una forma de llegar a un modelo auténtico de hombre que no incluya y se base finalmente en el pensamiento filosófico y moral? No es de extrañar que nos hablemos de largo”.

John_McCarthy.

Esta vuelta autocrítica se manifiesta en las respuestas de Weizenbaum a sus colegas y críticos, documentadas en: Buchanan, Bruce C., Lederberg, Joshua, McCarthy, John (1976). Three Reviews of J. Weizenbaum’s Computer Power and Human Reason. Stanford University, Computer Science Department.

Ver referencias (1976): https://apps.dtic.mil/dtic/tr/fulltext/u2/a044713.pdf; Keynote del Weizenbaum-Award (2021): http://www.capurro.de/weizenbaum.html).

(AM): Su trayectoria por el mundo filosófico en la década de los ochenta del siglo XX, es una fuente inagotable de filosofía, hermenéutica, epistemología de la información, digital e IA. ¿En la década de los noventa de ese siglo continuó con la línea de investigación que incluía reflexiones sobre Weizenbaum?

(R C): En la década del 90 dediqué varias publicaciones a su pensamiento como, por ejemplo: “La responsabilidad del pensar. La inteligencia artificial desde una perspectiva ética” (Ver,1998: http://www.capurro.de/verantwortbarkeit.html); además de “Informática: De la tecnocracia al arte de vivir” que fue mi contribución a una conferencia organizada por la Universidad de Zürich en 1992 (ver: http://www.capurro.de/zuerich.htm) en la que participaron Weizenbaum y la profesora de informática Christiane Floyd. Es bueno decir que ambos exhortaban una visión más amplia de la computación y la informática con respecto a las relaciones en las que está enraizada la vida humana en el mundo. A este tema dediqué mi libro “Vivir en la era de la información” (“Leben im Informationszeitalter” Berlin 1995. Con relación a esta temática se puede consultar:  http://www.capurro.de/leben.html). Puedo firmar que fue esta conferencia en 1992 una de las ocasiones en las que tuve el privilegio de tener un contacto personal con Joseph Weizenbaum.

Christiane Floyd, primera mujer científica informática alemana.

Christiane Floyd había publicado en 1985 un artículo clave con el título “Donde están los límites de un uso responsable de la computadora?”. En su aporte a la conferencia en Zürich ella presentó las siguientes “Guías éticas para el diseño. Una sugerencia”:

  1. Observa una medida humana 2. Coloca a los seres humanos por encima de la tecnología
  2. Promueve las relaciones entre los seres humanos. 4. Capacita a los seres humanos para actuar responsablemente. 5). Usa la tecnología para promover la vida. 6. Respeta la naturaleza corporal humana. 7. Contribuye a aumentar el potencial humano y sus facultades. 8. Haz aspiraciones creíbles con respecto a la tecnología. 9. Refuerza la autonomía humana. 10. Enriquece el trabajo humano.

¿La contribución de Weizenbaum tenía como título “Por qué un pensamiento crítico en la informática?” (Floyd, Christiane (1992/2011).

En 2017 tuve el honor de ofrecer la laudatio del Doctor Honoris Causa otorgada a Christiane Floyd por la Universidad de Paderborn. Además en ese mismo año fue creado el Weizenbaum Institute for the Networked Society  (trad.“Instituto Weizenbaum para la Sociedad Conectada”)

Este es un instituto de investigación interdisciplinario que se dedica a estudiar los aspectos sociales, legales y éticos de la digitalización y la red. Está ubicado en Berlín y es financiado por el Ministerio Federal de Educación e Investigación de Alemania. El instituto lleva el nombre de Joseph Weizenbaum, un pionero de la informática y la inteligencia artificial. (ver: https://www.weizenbaum-institut.de/en/).

En 2020, la International Society for Ethics and IT (INSEIT) me honró con el Joseph Weizenbaum Award in Information and Computer Ethics (trad. Premio Joseph Weizenbaum en Ética de la Información y la Computación) que me fue otorgado en la conferencia CEPE/IACAP 2021, Computer Ethics: Philosophical Enquiry / International Association of Computing and Philosophy (trad. AM: Ética de la Computación: Investigación Filosófica, CEPE, / Asociación Internacional de Computación y Filosofía” (IACAP).

My keynote The Philosophy and Ethics of Artificial Intelligence (trad: Mi conferencia “La Filosofía y la Ética de la Inteligencia Artificial”) tuvo lugar en Hamburgo, 5-9 Julio 2021 con el título: Joseph Weizenbaum: A Parrhesiastes in the Digital Age (Ver: http://www.capurro.de/weizenbaum.html).

(AM): Ese Premio que le fue otorgado a usted en el 2020, se otorga cada dos años a una persona que ha hecho contribuciones significativas al campo de la ética de la información y la computación, a través de su investigación, servicio y visión.

(RC): Es así, señor Merejo, toda mi consagración o todo mi esfuerzo en estos ámbitos de investigación ético informacional, digital e IA, no puedo decir que haya sido en vano. Me he dedicado a estudiar los aspectos éticos, sociales y legales de las tecnologías de la información y la comunicación, especialmente en lo que respecta a la inteligencia artificial y sus aplicaciones. He encontrado beneficios como la optimización de procesos, la mejora de la calidad de vida y la generación de nuevos conocimientos, pero también desafíos como la protección de la privacidad, la seguridad de los datos y la responsabilidad de los agentes implicados. Mi objetivo es contribuir al desarrollo de una ética informacional que oriente el uso responsable y beneficioso de estas tecnologías para la humanidad. Con este fin creé en 1999 el International Center for Information Ethics (ICIE) un centro virtual que está ahora en Rio de Janeiro gerenciado por mis colegas brasileros, los profesores Marco Schneider y Arthur Bezerra, miembros del Ibict (Instituto brasilero de investigación en ciencia y tecnología) https://www.i-c-i-e.org/ En 2004 cree la International Review of Information Ethics (IRIE), una revista académica dedicada a este campo  https://informationethics.ca/index.php/irie .

(AM): Es bueno enfatizar que, sobre mi insistencia sobre el tema del debate entre McCarthy y Weizenbaum, no es inocente. Lo hago de manera recurrente, dado que ambos estuvieron involucrados con relación a la IA; y que el debate que se dio entre ellos fue uno de los primeros y más influyentes en la historia de la IA, y planteó cuestiones fundamentales sobre los límites, los riesgos y desafío de esta inteligencia, en la que muchos pensadores viven repitiendo parte de estas ideas contenida en dicho debate. McCarthy fue un pionero de la inteligencia artificial que defendió el uso de la lógica formal y el cálculo para modelar el razonamiento humano; mientras Weizenbaum, que también fue pionero en la creación de los primeros chatbot (ELIZA): llegó a criticar y cuestionar la capacidad de las máquinas para comprender el significado y los valores humanos.

El debate se originó a partir de la reseña que McCarthy le hizo a su libro en el 1976, y el cual lo criticó por considerarlo como poco sistemático y convincente. Además, dijo que Weizenbaum no había demostrado que la inteligencia artificial fuera una amenaza para la humanidad y argumentó que la ciencia es la única forma de conocimiento válido. Esto trajo como resultado una réplica detallada, en la que este defendió su posición y acusó a McCarthy de ignorar las implicaciones sociales y éticas de la inteligencia artificial. Enfatizó que la IA no podía capturar la complejidad y la singularidad de la experiencia humana, y que los científicos de la inteligencia artificial debían asumir la responsabilidad de las consecuencias de su trabajo.

(RC): En mi conferencia, en Hamburgo, Julio 2021, dije que dese el 1976, el año de publicación de "Computer Science and Human Reason: From Judgement to Calculation",   Weizenbaum, se fue volviendo cada vez más escéptico con respecto a la tecnología computacional. Explicó que ELIZA fue tomada en serio por los psiquiatras en lugar de entenderla como un ejemplo de un diálogo con la computadora. A sus colegas de Stanford Bruce C. Buchanan, Joshua Lederberg y en especial a John McCarthy no les gustó el libro y escribieron reseñas críticas el mismo año en que fue publicado. En su respuesta a la reseña de McCarthy escribe Weizenbaum:

“Finalmente, McCarthy afirma que “el pensamiento filosófico y moral nunca ha encontrado un modelo del hombre que conecte en forma plausible las creencias humanas con el mundo físico.” Solamente alguien que haya dominado la totalidad de la literatura filosófica y moral tendría la autoridad para decir esto. ¡Qué humildad casi divina! La distancia que separa a John McCarthy de Joseph Weizenbaum sólo puede ser medida por los desafíos que estos dos se lanzan uno al otro. McCarthy desafía a Weizenbaum: “¡Muéstrame un camino de conocimiento además de la ciencia!” y Weizenbaum le responde: “¿Puede haber otro camino hacia un modelo auténtico del hombre que no incluya y esté fundado finalmente en un pensar filosófico y moral?” No es de extrañar que hablamos uno por encima del otro.”

(Ver en versión en español “Joseph Weizenbaum: Un parresiastes  en la era digital” (2021): (http://www.capurro.de/weizenbaum_castellano.html

(AM) A propósito de esa conferencia sobre “Joseph Weizenbaum: Un parresiastés en la era digital”, observo que va por la línea de Foucault, quien ha construido todo un discurso sobre la parresía en cuanto forma de expresión que implica que un sujeto diga la verdad sin temor a las consecuencias, asumiendo el riesgo de desafiar al poder, es decir, que habla libremente, con franqueza y con valor; como todo un parresiastés.

M.Foucault

Al respecto, como filosofo del poder, argumenta sobre esta práctica desafiante y crítica “Cuando un filósofo se dirige a un soberano, a un tirano, y le dice que su tiranía es molesta y desagradable porque la tiranía es incompartible con la justicia, entonces el filósofo dice la verdad, cree que está diciendo la verdad y, más aún, también asume un riesgo (ya que el tirano puede enfadarse, castigarlo, exiliarlo, matarlo) … Por supuesto esto no es solo un riesgo de muerte. Cuando por ejemplo alguien ve a un amigo haciendo algo malo y se arriesga a provocar su ira diciéndole que está equivocado, está actuando como un parresiastés. En tal caso, no arriesga su vida, pero puede herir al amigo con sus observaciones, y su amistad puede consecuentemente, sufrir por ello.” (Foucault, 2004, Pp.42-43).

En estos tiempos cibernéticos y transidos, la parresía adquiere una nueva dimensión, pues se trata de un espacio que va en la línea de lo que he conceptualizado como el “Hereje cibernético” que cuestiona el orden social, económico y político de todos los entramados del sistema cibermundo, que tiene que ver con el control y el fin de la privacidad, la posverdad, la ciberguerra, la ciberadicción, la infoxicación, los valores de justicia y libertad, entre otros derechos ciudadanos (Merejo, “Filosofía para tiempos transidos y cibernéticos”, 2023). Así como los nuevos desafíos y oportunidades que nos plantea la IA. ¿Cómo un parresiastés, que es el sujeto que ejercer la parresía en el ciberespacio, puede luchar contra cierto tipo de software de IA, que genera y manipula la información? ¿Cómo podemos distinguir la verdad de la mentira, en el ciberespacio, donde la IA puede imitar, influir o controlar el discurso?

Estas son algunas de las preguntas que me interesan como filósofo de la tecnología, la cibernética y de la ciberpolítica. Creo que la parresía es una actitud crítica y ética que debemos cultivar y defender en el cibermundo, pues nos permite cuestionar y transformar las relaciones de poder que se establecen entre los humanos y las máquinas, entre los sujetos y las instituciones. La parresía es una forma no solo de ser y estar, sino también de resistir y de emanciparse, que nos permite afirmar nuestra libertad y nuestra responsabilidad ante estos tiempos cibernéticos y transidos.

(RC): Este texto de Foucault es muy bueno y le agradezco que haga referencia en nuestro diálogo. Uso el concepto de parresiastés en el sentido analizado por él en sus conferencias en la University of California at Berkeley con el título: “Discurso y verdad: la problematización de la parresía” (Foucault 1983).

Reitero lo que escribí sobre Weizenbaum, y que ya hice referencia en ideas anteriores: El parresiastés —y en la tradición política griega es importante tomar nota de la diferencia de género— es aquél que dice una verdad que puede ser peligrosa para él. ¿Cómo puede estar seguro el otro de que el hablante “dice la verdad”? ¿Y cómo puede estar él o ella seguro de que lo que el hablante cree ser la verdad, de hecho, lo sea? La primera pregunta fue importante en Grecia. La respondieron, según Foucault, Plutarco y Galeno. La segunda es moderna. Pertenece a una cultura basada en la libertad de expresión en sentido de un derecho universal a comunicar a diferencia de un derecho individual. “Computer Power and Human Reason: From Judgement to Calculation" de Weizenbaum es un título parresiástico, es decir, provocativo en el sentido de invocar o desafiar lo que puede ser y de hecho fue visto por los colegas de Stanford como una distorsión, una exageración, y al final, paradójicamente, como irracional. Cuestiona la forma de poder de la razón humana computacional en nombre de la razón humana como capacidad de juzgar y criticar sus ambiciones y obsesiones.