La implementación de la inteligencia artificial (IA) en nuestras sociedades representa una transformación profunda en las condiciones de pensamiento, acción y relación, lo cual no debe ser considerado únicamente como un avance técnico, sino como un cambio paradigmático. El ciberespacio, concebido como el espacio híbrido que entrelaza lo digital con lo humano, no es un escenario neutral; es un terreno de disputa donde se redefinen el poder, el conocimiento y las formas de vida. En este contexto, la reflexión ética se convierte en un imperativo inaplazable, pues las tecnologías no solo amplían las capacidades humanas, sino que también pueden erosionar derechos, reproducir desigualdades y generar nuevas formas de dominación.
El filósofo Andrés Merejo propone la categoría del «sujeto cibernético» para abordar esta condición contemporánea. Este sujeto no es un mero usuario de la tecnología, sino el artífice del cibermundo, alguien que construye realidades digitales y, simultáneamente, es transformado por ellas. El sujeto cibernético navega entre redes sociales, algoritmos y dispositivos ubicuos, experimentando una simultaneidad de lo real y lo virtual. No obstante, su capacidad creativa no lo exime de los riesgos inherentes a la sociedad digital, caracterizada por nuevas formas de vigilancia, precariedad laboral y control algorítmico que restringen su autonomía. En este sentido, la IA no debe ser entendida como un instrumento externo, sino como una dimensión constitutiva del sujeto que se manifiesta en la actualidad. (Merejo, 2024)
La cuestión ética se erige como una problemática ineludible: ¿qué entidad o entidad colectiva es responsable por las acciones de una inteligencia artificial que tienen un impacto en la vida de los seres humanos? Este dilema se manifiesta en debates contemporáneos sobre la autonomía de los algoritmos, que abarcan desde drones militares que toman decisiones sobre objetivos hasta sistemas financieros que gestionan sumas multimillonarias en fracciones de segundo. Como señala Merejo, la IA carece de conciencia, emociones y experiencia, y sus decisiones son el resultado de la programación y los datos recibidos. Por lo tanto, la responsabilidad última recae en el sujeto cibernético que diseña, utiliza o regula dicha tecnología. Sin embargo, la velocidad y complejidad de estos sistemas dificultan la determinación de responsabilidades claras, lo que nos enfrenta a un panorama de incertidumbre moral.
En este contexto, diversos pensadores contemporáneos han proporcionado diagnósticos que abordan esta cuestión. Yuval Noah Harari advierte sobre la probabilidad de que la inteligencia artificial (IA) reemplace a un gran número de trabajadores y transforme el ámbito político mediante la manipulación masiva de datos. Por su parte, Byung-Chul Han subraya cómo los algoritmos reducen la vida a información cuantificable, eliminando la experiencia del cuerpo y de la vulnerabilidad. Yuk Hui diserta acerca de la crisis de la narración: un universo regido por entes mecanizados que generan relatos desprovistos de experiencia, despojados de sustancia y remembranza. Estas perspectivas convergen en la idea de que la IA no solo plantea desafíos de índole técnica, sino también problemas de naturaleza existencial para la humanidad. (Merejo et al., 2024)
No obstante, circunscribir la discusión a la amenaza o fascinación tecnológica constituiría una limitación imperante. El ciberespacio, entendido como el conjunto de redes interconectadas que constituyen la sociedad digital , no se circunscribe únicamente a la lógica imperante en las corporaciones y los Estados, sino que, como se ha demostrado en investigaciones previas , también abre espacios para la creatividad, la cooperación y la resistencia. Los denominados «prosumidores», sujetos que crean y comparten conocimiento en red, evidencian la capacidad de la inteligencia humana para articularse con herramientas digitales sin comprometer su autonomía. La ciberdemocracia, en su estado actual de desarrollo, evidencia una fragilidad inherente, pero muestra señales prometedoras de avanzar hacia nuevas modalidades de participación política a través de plataformas virtuales. En el ámbito educativo, la implementación de chatbots puede resultar beneficiosa, siempre y cuando se reconozca su función instrumental y no se les confiera un rol de sustitución del pensamiento crítico.
Por tanto, la cuestión fundamental no radica únicamente en las capacidades intrínsecas de la IA, sino en los objetivos que deseamos alcanzar mediante su implementación. En este contexto, la ética se erige como un faro orientador, brindando un marco de referencia para la toma de decisiones. La UNESCO, por ejemplo, ha propuesto marcos de gobernanza justa que priorizan valores como la dignidad humana, la equidad y la privacidad. Sin embargo, tales principios corren el riesgo de limitarse a meras declaraciones si no se traducen en políticas vinculantes y en una cultura crítica por parte de los ciudadanos. La ética de la IA no puede ser un código impuesto desde una posición de autoridad; debe ser un proceso colectivo de deliberación, en el que el sujeto cibernético asuma su responsabilidad en la construcción del futuro.
En este sentido, Merejo (2024) plantea un punto de inflexión en su análisis al establecer una diferenciación entre la inteligencia humana y la inteligencia artificial, dos conceptos que, a pesar de su aparente similitud, presentan diferencias significativas en su capacidad de procesamiento y respuesta a estímulos externos. La primera de estas dimensiones se fundamenta en la experiencia acumulada, la emoción intrínseca, la conciencia y la creatividad. En contraste, la segunda dimensión opera en el ámbito de la posexperiencia, limitada a la percepción de datos sin la vivencia subyacente. La confusión entre ambos conceptos da lugar al mito del «súper-sujeto tecnológico», que sugiere la posibilidad de que las máquinas puedan reemplazar el sentido de la existencia humana. En oposición a esta ilusión, resulta imperativo reivindicar aquello que la IA jamás podrá simular plenamente: la capacidad de experimentar emociones, de narrar y de enfrentar la muerte. La finitud, lejos de ser considerada una debilidad, se erige como un elemento que confiere valor a nuestras acciones y nos impulsa a reflexionar éticamente.
El mayor riesgo potencial reside en que la fascinación tecnológica pueda desviar nuestra responsabilidad. La delegación de decisiones de naturaleza crucial en algoritmos carentes de transparencia se traduce en una cesión de poder a entidades opacas bajo el control de corporaciones y gobiernos. El 90 % del tráfico global de internet está controlado por solo unas pocas empresas, y Google gestiona aproximadamente el 20 % de los contenidos. En un contexto como el mencionado, la ética de la IA se encuentra inextricablemente vinculada a la crítica del poder económico y político que la sustenta. La cuestión no radica únicamente en determinar si las máquinas exhibirán imparcialidad, sino también en evaluar la equidad inherente a los sujetos y estructuras que las programan.
En conclusión, la ética de la inteligencia artificial en tiempos de cibermundo exige más que normativas técnicas; requiere de una filosofía crítica capaz de situar al sujeto cibernético en el centro del debate. La Inteligencia Artificial (IA) amplifica tanto nuestras capacidades como nuestras contradicciones. En este sentido, puede ser considerada como una herramienta que impulsa la emancipación o, por el contrario, como un mecanismo de control. La orientación de la investigación es un factor determinante en el diseño y la ejecución del estudio. Ante la tentación de sucumbir a la lógica del mercado o al temor apocalíptico, se requiere una ética de la responsabilidad recursiva, que reconozca la co-creación entre lo humano y lo artificial. En el contexto actual, se plantea la necesidad imperante de reflexionar sobre la manera en que los individuos pueden habitar el ciberespacio sin despojarse de los atributos que caracterizan a su condición humana. En este sentido, se propone como premisa fundamental la preservación de la capacidad de pensar, narrar y vivir con sentido, como medio para evitar la pérdida de lo más propio de la condición humana.
Referencias.
Diálogo filosófico con Antonio Campillo (2 de 4). (2024, Agosto 01). Acento. Retrieved Septiembre 21, 2024, from https://acento.com.do/actualidad/dialogo-filosofico-con-antonio-campillo-2-de-4-9387940.html
Merejo, A. (2024, August 25). Andrés Merejo: Diálogo filosófico con Antonio Campillo (1 de. Acento. Retrieved September 26, 2024, from https://acento.com.do/actualidad/andres-merejo-dialogo-filosofico-con-antonio-campillo-1-de-4-9385746.html
Merejo, A., Patrick, R., & Salminen, S. (2024, September 15). Diálogo filosófico con Antonio Campillo. 4 de 4 (*). Acento. Retrieved September 26, 2024, from https://acento.com.do/cultura/dialogo-filosofico-con-antonio-campillo-4-de-4-9393155.html
Merejo, A., & Salminen, S. (2024, September 8). Diálogo filosófico con Antonio Campillo (3 de 4). Acento. Retrieved September 23, 2024, from https://acento.com.do/cultura/dialogo-filosofico-con-antonio-campillo-3-de-4-9391394.html
Compartir esta nota