Desde hace siglos, los seres humanos nos hemos preguntamos qué es la verdad y cómo podemos reconocerla. No es una discusión nueva, es una inquietud tan antigua como la propia filosofía y tan vigente como los debates actuales en torno a los llamados “Epstein files”. Precisamente por eso, a lo largo de la historia, distintos pensadores han intentado responder a esta pregunta desde ángulos diversos, a veces complementarios y otras abiertamente contradictorios.
En un primer momento, para algunos como Aristóteles, la respuesta parecía sencilla: una afirmación es verdadera si coincide con los hechos. Por ejemplo, en buen dominicano, decir que “llovió es verdadero si, efectivamente, depositaron el pago de la quincena”. Sin embargo, con el tiempo esta idea empezó a mostrar fisuras, puesto que Kant advirtió que no accedemos a la realidad de manera directa, sino a través de nuestros sentidos y de la forma en que nuestra mente organiza lo que percibe. En otras palabras, no vemos el mundo “tal cual es”, sino como podemos entenderlo. Un ejemplo aplatanao de ello ocurre cuando los “motoristas”, aun cuando la luz del semáforo está en rojo, no logran distinguirla correctamente debido a su “daltonismo crónico” y cruzan la intersección poniendo en riesgo su vida y la de otros. El hecho no cambia, pero su percepción sí; y eso basta para mostrar que entre la realidad y nuestra comprensión de ella siempre media la experiencia.
Ahora bien, esta mediación no se limita únicamente a la percepción individual. Más adelante, otros pensadores fueron aún más lejos al advertir que una afirmación puede describir correctamente un hecho sin por ello expresar la verdad en un sentido pleno. En este sentido, para Hegel, la verdad no se encuentra en hechos aislados ni en afirmaciones puntuales, sino en la coherencia interna de un conjunto de ideas, de modo que algo solo puede considerarse verdadero cuando encaja de manera consistente dentro de un sistema más amplio de sentido. Dicho en clave mediática, es como cuando en un programa de radio se repite una frase sacada de una entrevista y, a fuerza de repetirla, termina pareciendo toda la verdad, aunque en realidad sea solo un pedacito del cuento que, aislado, no explica lo que realmente se quiso decir.
En esa misma línea de complejización, William James, considerado uno de los fundadores del pragmatismo, introdujo una mirada más práctica sobre la verdad. Para James, lo verdadero no se define solo por su correspondencia con los hechos o por su coherencia interna, sino también por sus efectos en la vida real, lo cual implica que, una idea cuenta como verdadera en la medida en que funciona, orienta la acción y ayuda a resolver problemas concretos. Es decir, poco importa tener “la razón sobre las causas de los feminicidios” si esa verdad no sirve para orientar la acción y contribuir a resolver el problema concreto. Finalmente, Nietzsche fue todavía más provocador al poner en duda la existencia misma de verdades absolutas, mostrando que toda verdad está atravesada por interpretaciones, intereses y relaciones de poder, y que algunas de ellas logran imponerse sobre otras; basta observar cómo un mismo hecho adquiere significados distintos según quién tenga el micrófono en los programas radiales de opinión.
Todo este recorrido filosófico no es un ejercicio abstracto ni una discusión académica lejana. Por el contrario, permite comprender con mayor nitidez el fenómeno de la posverdad, un rasgo profundamente contemporáneo de nuestras sociedades. Como advirtió tempranamente Steve Tesich, el problema ya no radica únicamente en distinguir entre lo verdadero y lo falso, sino en la creciente disposición social a vivir cómodamente sin la verdad, siempre que esta resulte incómoda, perturbadora o cuestione nuestras certezas. En este contexto, la posverdad no niega frontalmente la existencia de los hechos; más bien, los relega a un segundo plano frente a emociones, creencias previas, identidades políticas e intereses estratégicos. De este modo, una afirmación puede circular, consolidarse y ganar legitimidad pública no por su correspondencia con la realidad, sino por su capacidad de tranquilizar, movilizar o reforzar narrativas previamente aceptadas, incluso cuando ello implique convivir con una versión distorsionada de los hechos.
En este escenario, la mediación que antes se atribuía a la percepción individual o a las ideas con las que intentábamos explicar la realidad se transforma en una mediación colectiva y estructural, cada vez más condicionada por quienes controlan los canales de información y deciden qué se dice, cómo se dice y con qué intensidad se repite. Como resultado de ello, la verdad deja de depender únicamente de lo ocurrido y pasa a depender de quién lo cuenta, cómo lo cuenta, cuántas veces y a través de cuales canales se repite. No es casual, entonces, que ante un mismo hecho coexistan relatos radicalmente distintos, cada uno con su propia audiencia convencida de estar del lado correcto de la realidad. En consecuencia, en la era de la posverdad, lo decisivo ya no es la correspondencia con los hechos, sino la capacidad de un relato para circular, viralizarse y reforzar creencias existentes.
Es precisamente en este escenario donde irrumpe la inteligencia artificial como un actor aparentemente neutral, pero profundamente condicionado por el entorno discursivo en el que opera. Por eso, cuando se le pregunta por “la verdad” sobre un tema polémico, no responde como un árbitro independiente, sino como un reflejo estadístico de los patrones dominantes en el lenguaje del que aprende.
La razón principal por la que la inteligencia artificial no “dice la verdad” es que no “sabe” en el sentido humano ni tiene acceso al significado o a la realidad. Los modelos de lenguaje generativos (ChatGPT, Gemini, Deepseek, entre otros) no comprenden el mundo ni verifican hechos; operan identificando regularidades estadísticas en grandes volúmenes de datos. Como ha advertido Emily Bender, lingüista computacional y una de las especialistas más reconocidas en el estudio de estos modelos, este tipo de sistemas no entienden el mundo ni acceden a la verdad, simplemente producen respuestas que suenan correctas y plausibles sin necesariamente ser verdaderas. Por ello, sus respuestas pueden resultar convincentes y coherentes sin que ello implique acceso alguno a la verdad. Comprender esta base técnica es fundamental para evitar atribuirle una autoridad epistemológica que no posee y para entender que no actúa como un juez “imparcial” de la realidad, sino como un espejo, a veces fiel y a veces distorsionado, del lenguaje humano del que aprende.
Precisamente por eso, el sesgo se origina en los datos, ya que, si los conjuntos de información que alimentan a la inteligencia artificial reflejan prejuicios sociales, desigualdades de representación o vacíos informativos, la IA tenderá a reproducir esos patrones en sus resultados. Esto no significa que los sistemas “decidan” discriminar, sino que pueden generar respuestas o recomendaciones con efectos desiguales cuando aprenden a partir de datos ya distorsionados. En ese sentido, la IA no crea el sesgo, lo hereda y puede amplificarlo en función de la escala y la frecuencia con que se utiliza, por lo que, reconocer esta dinámica resulta crucial para no atribuirle una objetividad que no posee y para evitar una confianza acrítica en sus respuestas.
Ahora bien, este riesgo no se manifiesta con la misma intensidad en todos los ámbitos. En particular, el sesgo se vuelve especialmente visible cuando la inteligencia artificial aborda temas socialmente sensibles y altamente disputados, a diferencia de aquellos campos donde el conocimiento está más estabilizado por consensos científicos amplios. Así ocurre, por ejemplo, en asuntos relacionados con política, ideología, desigualdad social o reputación personal, donde cualquier asimetría presente en los datos tiende a amplificarse. En consecuencia, si un tema ha sido tratado de forma polarizada en los medios, en las redes o en el debate público, la IA reflejará esa polarización. Así, en debates políticos o ideológicos, puede reforzar narrativas dominantes no porque sean más verdaderas, sino porque están más presentes, más repetidas o mejor posicionadas en los datos de los que aprende. En este punto, la prudencia se vuelve indispensable y nuestra lectura debe ser más crítica, ya que como ha señalado Kate Crawford, una de las principales investigadoras en ética de la inteligencia artificial, estos sistemas no están diseñados para descubrir la verdad, sino para reproducir y escalar los patrones de poder y de discurso presentes en los datos con los que se entrenan.
Frente a este panorama, como usuarios debemos aprender a utilizar la IA con criterio. No se trata de descartarla ni de desconfiar sistemáticamente de sus respuestas, sino de comprender con claridad sus límites. Cuando se trate de información relevante o decisiones importantes, conviene contrastar con fuentes verificadas, consultar expertos humanos y evitar asumir que la IA tiene la última palabra. En otras palabras, la IA es una herramienta poderosa, pero solo resulta realmente útil cuando se combina con una mirada crítica y responsable por parte del usuario.
Esta advertencia no es nueva. Platón advertía que los seres humanos solemos confundir sombras con realidad. La inteligencia artificial no nos saca de la caverna, sino que proyecta sombras más nítidas, más rápidas y mejor iluminadas. La diferencia es que ahora esas sombras vienen acompañadas de una voz segura, articulada y aparentemente neutral, lo que las vuelve aún más persuasivas.
Por eso, la inteligencia artificial no “miente”, pero tampoco posee la verdad. Es, en esencia, un reflejo de los datos con los que fue entrenada, datos producidos, seleccionados y organizados por personas e instituciones, con sus inevitables sesgos, ausencias y limitaciones, por lo que, en contextos complejos, donde la información es disputada y el sesgo puede intensificarse, la responsabilidad recae en nosotros: en cómo diseñamos, utilizamos y cuestionamos estos sistemas, y en cómo contrastamos sus respuestas con otras perspectivas. Solo desde esa conciencia crítica, la IA puede convertirse en una verdadera aliada, siempre y cuando no olvidemos cuál es, y cuál no es, su naturaleza.
Compartir esta nota