Ya sea con voces clonadas que se utilizan para vaciar cuentas bancarias o con vídeos generados por inteligencia artificial (IA) de políticos comportándose de forma indebida, el mundo digital lleva mucho tiempo lleno de falsificaciones, engaños y fraudes.
Pero Hany Farid, profesor de la Universidad de California en Berkeley y especialista en informática forense digital, expuso recientemente dos observaciones que apuntan a un panorama cada vez más sombrío. La primera surgió en un podcast en enero, cuando le pidieron calificar la amenaza que representan los "deepfakes", o ultrafalsos, para la sociedad en una escala del uno al diez. ¿Su respuesta? Doce.
La segunda surgió más recientemente cuando le pregunté a Farid si en general la gente todavía era capaz de distinguir entre material auténtico y material generado por IA. “No, eso ya se acabó”, respondió, explicando que los experimentos en su laboratorio de estudios de la percepción muestran que las personas identifican correctamente si una imagen, un audio o un vídeo es auténtico alrededor del 65 por ciento de las veces (el azar sería el 50 por ciento).
En el mundo real, cuando la gente ve contenido emotivo en sus pantallas, probablemente el desempeño es aún peor, dice. Incluso él ya no confía en poder distinguir la diferencia de forma fiable sin ayuda forense.
Cuando lo falso se parece a lo real —y viceversa— verificar acontecimientos del mundo real se vuelve más difícil y lleva más tiempo. Esta semana Farid me sugirió que sobre la guerra en Irán circula más información falsa que legítima. A los medios les tomó varios días triangular imágenes satelitales, testimonios de testigos y opiniones de expertos en armamento para sugerir que EEUU bombardeó una escuela de niñas. La línea entre hecho y ficción no sólo se está difuminando, está volviéndose invisible.
Hay medidas que instituciones y particulares pueden adoptar desde ahora para practicar una “higiene digital”. Dado que bastan entre 10 y 15 segundos de audio para clonar una voz, dice Farid, los bancos deberían dejar de inmediato de usar biometría de voz para acceder a información sensible.
También se recomienda que las familias establezcan una contraseña secreta y practiquen su uso para protegerse de estafadores que se hacen pasar por un familiar angustiado que necesita dinero con urgencia.
Algunas compañías se han adherido voluntariamente a sistemas de marcas de agua para señalar que su contenido ha sido generado o modificado por IA. SynthID de Google, por ejemplo, inserta firmas digitales encubiertas cuando los archivos se crean o se modifican. Estas marcas permanecen ocultas para los usuarios, pero aparecen en análisis especializados y sobreviven a recortes u otras ediciones (los usuarios de Gemini pueden subir contenido para comprobar si tiene marcas de agua). Las firmas incrustadas son difíciles de eliminar sin dañar la calidad del archivo, a diferencia de los metadatos, que son identificadores adjuntos como la fecha y la ubicación.
La Unión Europea (EU) quiere que el uso de marcas de agua digitales sea obligatorio. ¿Debería ser un delito presentar material generado por IA como si fuera real? Farid cree que eso sería indeseable y difícil de aplicar, pero sostiene que las compañías tecnológicas deberían asumir cierta responsabilidad penal por las imágenes íntimas no consentidas y el material de abuso infantil.
Su propia compañía de ciberseguridad analiza, entre otras técnicas, las reuniones en directo de las organizaciones para verificar en tiempo real que los participantes en pantalla no sean clones generados por IA. La firma de investigación Gartner estima que para 2028 uno de cada cuatro solicitantes de empleo será falso y algunos serán estafadores que buscan infiltrarse en los sistemas de las empresas.
El problema es que la tecnología ha democratizado el engaño: basta con tener motivación y un teléfono celular para producir deepfakes convincentes. Estas fantasías, que apelan a nuestros sesgos, enturbian la manera en que percibimos la realidad. La mayoría accedemos al mundo a través de nuestras pantallas, un flujo pixelado cuyos límites son establecidos por algoritmos y cuyo contenido es elegido cada vez más por chatbots y asistentes digitales complacientes y aduladores.
El auge de los deepfakes significa que quienes se preocupan por la verdad retrasarán la re-publicación de información para comprobarla, si es que publican en absoluto. Eso les cede cada vez más el espacio público a quienes se preocupan menos, o a quienes se benefician de la desinformación y la información falsa.
En una encuesta reciente sobre cómo la IA está cambiando los medios, elaborada por el Instituto Reuters para el Estudio del Periodismo, con sede en la Universidad de Oxford, uno de los participantes sugirió que las “últimas noticias” pronto serán sustituidas por las “últimas verificaciones”.
Otros proponen la idea de una “cadena de custodia digital” para la información, que detalle su origen, propiedad y cualquier modificación.
Sin embargo, estas son soluciones propuestas para un problema que ya sufrimos. La realidad se está diluyendo en medio del artificio, y en el intento de seguirle el paso sufrimos un doble perjuicio: caer erróneamente en las falsedades y, al mismo tiempo, descartar verdades creyendo que son noticias falsas (esto último es lo que se conoce como el “dividendo del mentiroso”).
Esto es un perfecto salvavidas para los inescrupulosos. A medida que se expande el mar de hechos discutibles, será mucho más fácil mantenerse a flote.
(Anjana Ahuja. Copyright The Financial Times Limited 2026. © 2026 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web).
Compartir esta nota