Imágenes satelitales que parecen haber sido generadas o modificadas con inteligencia artificial (IA) se difundieron ampliamente en redes sociales el fin de semana, destacando los peligros de esta tecnología como posible vehículo para la desinformación en tiempos de guerra.

Una imagen circulada en X, incluyendo una publicación de la cuenta oficial del periódico iraní Tehran Times, muestra una imagen satelital que supuestamente presenta daños en un sistema de radar estadounidense en Qatar tras un ataque con un dron iraní.

Un análisis del Financial Times (FT) revela que se trata de una imagen alterada por IA de una zona de Baréin. Vídeos verificados por el FT muestran varios ataques en la zona que rodea el sistema de radar en Baréin, y las imágenes satelitales captadas por Planet Labs el 1 de marzo confirman que el sitio ha sufrido daños.

Pero la imagen del radar destruido presenta indicios de manipulación: los vehículos que aparecían en la foto anterior, tomada hace más de un año, permanecen en la misma posición, las sombras caen exactamente en el mismo ángulo que en la imagen anterior y partes de la estructura del edificio han sido alteradas. Las imágenes satelitales históricas no muestran cambios estructurales en el sitio en muchos años.

El episodio refleja un cambio más amplio en la guerra de la información, a medida que la IA generativa facilita la fabricación de pruebas visuales convincentes y dificulta que el público distinga entre documentación y engaño.

En respuesta a la oleada de vídeos falsos que circulan en la plataforma, Nikita Bier, directora de producto de X, publicó el martes que la compañía intensificaría sus esfuerzos para frenar el contenido generado por IA. Los usuarios que compartan material sin la debida divulgación no podrán obtener ingresos durante 90 días y los reincidentes se enfrentarán a una suspensión permanente, afirmó Bier.

Brady Africk, investigador independiente de inteligencia de código abierto y director de relaciones con los medios del American Enterprise Institute, afirmó que las personas tienden a confiar en las imágenes satelitales como una fuente fiable debido a la compleja tecnología que implica su captura.

“Las imágenes satelitales se pueden manipular igual que otras imágenes. La IA ha facilitado enormemente este proceso y representa una amenaza significativa para quienes intentan obtener información en línea”, afirmó Africk.

La dificultad para identificar una imagen satelital manipulada, en comparación con un "deepfake", o ultrafalso, de una persona, radica en la “falta de indicios biométricos”, según Henk van Ess, experto en métodos de investigación en línea y autor del boletín Digital Digging.

“Con un rostro, se pueden buscar parpadeos extraños, texturas de piel poco naturales y orejas deformes”, explicó. “Con una imagen satelital, se observan edificios, carreteras, terrenos, cosas que carecen de estos detalles inherentes”.

"El cambio clave es éste: antes, una agencia de inteligencia estatal con conocimientos de Photoshop podía falsificar una imagen satelital", añadió van Ess. "Ahora, cualquiera con acceso a herramientas de IA gratuitas puede producir algo lo suficientemente convincente como para engañar a los espectadores ocasionales y mover los mercados. Esa barrera se ha derrumbado".

El uso de IA para añadir color a las imágenes satelitales puede cambiar sutilmente la forma en que las personas ven la escena, introduciendo diferencias percibidas que podrían no existir, según Bo Zhao, profesor de geografía digital en la Universidad de Washington.

“Las imágenes en blanco y negro no contienen detalles ni perspectiva de las cosas ni diferencias sobre el terreno”, explicó Zhao. “Con el color, es más fácil diferenciarlas”.

Otros medios generados por IA también se han compartido ampliamente, incluyendo una imagen que destaca los presuntos daños en una base estadounidense cerca de Erbil, Irak. La imagen mejorada con IA muestra un incendio voraz y una enorme nube de humo, y nuevamente contiene inconsistencias estructurales en comparación con imágenes recientes tomadas en ese lugar.

Se ha compartido una publicación que afirma mostrar el cuerpo del líder supremo de Irán, el ayatolá Alí Jameneí, siendo rescatado de entre los escombros, pero sigue sin verificarse y, además, parece estar generada por IA.

El conflicto en el Medio Oriente no es la primera guerra afectada por la desinformación generada por IA. Hubo informes de imágenes satelitales falsas tras el conflicto de cuatro días entre India y Pakistán el año pasado, y se han hecho afirmaciones similares durante la guerra entre Ucrania y Rusia.

“La gente debería ser muy firme en encontrar fuentes confiables que realizan su trabajo de forma abierta, pública y responsable”, declaró Africk.

(Dan Clark and Chris Campbell. Copyright The Financial Times Limited 2026. © 2026 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web).

Financial Times

El Financial Times (FT) es reconocido globalmente como una de las organizaciones de noticias más importantes, destacada por su autoridad e integridad editorial. Fundado en 1888, ha evolucionado de ser un diario enfocado en Londres a convertirse en una corporación mediática global. El 93% de sus lectores son digitales.

Ver más