En una era donde la información se difunde a la velocidad de la luz, los deepfakes surgen como un desafío sin precedentes.

La reconfiguración de la verdad

La acelerada digitalización del mundo ha dado paso a una nueva e inquietante amenaza: los deepfakes. Estos videos hiperrealistas, creados con inteligencia artificial, tienen el poder de distorsionar nuestra percepción de la realidad, configurándose como auténticas armas de manipulación masiva.

Generados mediante el uso de algoritmos sofisticados, los deepfakes crean videos que representan escenarios ficticios indistinguibles de la realidad. Para ilustrar el impacto de este fenómeno, examinaremos el caso de Gabón, un país africano donde un perturbador video sin sonido, identificado posteriormente como un posible deepfake, precipitó un intento de golpe de estado.

Aunque antes de adentrarnos en consecuencias más amplias y complejas, consideremos un escenario hipotético de cómo estos deepfakes podrían causar estragos en nuestro país.

Una atmosfera de alerta

Imagínese que, un día cualquiera al despertar y revisar sus redes sociales, se encuentra con videos virales: uno muestra a un líder dominicano profiriendo insultos ásperos contra Haití, mientras que otro revela a un político haitiano prominente dirigiendo un grupo armado en dirección a la frontera dominicana.

Dada la turbulenta historia entre República Dominicana y Haití — marcada por disputas territoriales, trágicas masacres, intervenciones militares y continuas tensiones migratorias —, estos videos fabricados podrían, en cuestión de horas, avivar antiguos resentimientos y encender conflictos reales. Esto se acentúa aún más en el clima actual, donde los rumores de posibles enfrentamientos armados circulan con frenesí.

Estos conflictos reavivados no solo podrían desatar caos y violencia en la isla, sino que también, como veremos a continuación, podrían tener consecuencias devastadoras para la economía y la reputación internacional de la República Dominicana.

La fragilidad del prestigio dominicano

Contemplemos por un momento las secuelas de un conflicto desencadenado por deepfakes. En un abrir y cerrar de ojos, décadas de esfuerzos en construir una reputación turística prestigiosa y serena, caracterizada por el encanto caribeño, podrían venirse abajo. Según el World Travel & Tourism Council, el turismo, junto con industrias conexas, representó el 15.0% del PIB del país en 2022, generando más de 800 mil empleos (= 16.8% del total de empleos). Este sector se vería severamente amenazado y en una situación de vulnerabilidad crítica.

Este escenario no solo pone en riesgo la estabilidad económica del país y el sustento de cientos de miles de familias, sino que también afectaría de forma considerable la percepción internacional y la confianza de los potenciales visitantes. Un único deepfake puede socavar la credibilidad y el atractivo de un destino, desencadenando una secuencia de eventos que podría resultar en pérdidas económicas sustanciales y daños irreparables a la imagen nacional.

Bajo la perspectiva diplomática, si la República Dominicana es percibida como agresora, sus relaciones internacionales podrían resentirse, con sanciones comerciales, restricciones migratorias y reevaluaciones de tratados bilaterales como posibles repercusiones. A largo plazo, este tipo de desinformación podría mermar la influencia y posición de la República Dominicana en el escenario internacional.

Dentro de este marco, resulta imperativo que los países cuyas economías son altamente dependientes del turismo, implementen mecanismos sólidos de prevención y respuesta contra la proliferación de deepfakes y otras formas de desinformación. Ahora, es vital reconocer que, en esta lucha contra la desinformación, los deepfakes no son más que la punta del iceberg de una larga tradición de manipulación informativa.

Desinformación: un vistazo al pasado

Los deepfakes representan una evolución peligrosa de las campañas de desinformación que ya han demostrado su poder desestabilizador alrededor del mundo. Durante la Guerra Fría, la Unión Soviética difundió que el VIH era un arma biológica estadounidense, teoría que muchos aún creen hoy, de acuerdo con un estudio de la Universidad Estatal de Oregón. En tiempos más recientes, Rusia utilizó cuentas falsas en redes sociales para generar protestas violentas en Texas, según informes de los servicios de inteligencia de los Estados Unidos.

Sin embargo, el alcance de estas tácticas de manipulación y engaño no se detiene en las plataformas de redes sociales más convencionales. En 2020, el panorama político brasileño se vio inundado por una red de cuentas ficticias que difundían información errónea en apoyo al presidente Bolsonaro. Mientras tanto, en 2021, agentes iraníes se infiltraron en grupos israelíes en aplicaciones de mensajería como WhatsApp y Telegram, difundiendo narrativas incendiarias y exacerbando tensiones en la región.

En este entorno global donde la manipulación informativa es cada vez más sofisticada y omnipresente, ningún país, ni la República Dominicana ni Haití, está exento de las repercusiones de estas tácticas de desinformación avanzada. La aparición de deepfakes amenaza con intensificar aún más estas tensiones, haciendo imperativo el desarrollo de estrategias robustas y cohesivas para contrarrestar estas amenazas a la verdad y a la estabilidad sociopolítica.

Deepfakes al alcance de todos

La amenaza que representan los deepfakes no radica únicamente en su hiperrealismo, sino también en su creciente accesibilidad. Antes, la manipulación digital avanzada era territorio exclusivo de expertos con conocimientos técnicos. Ahora, el panorama ha cambiado drásticamente con la irrupción de aplicaciones móviles y plataformas online sencillas, tales como Lensa AI, FaceSwap Live y DeepFakes Web, que posibilitan que cualquier individuo equipado con un smartphone pueda crear y diseminar deepfakes de manera sencilla y rápida.

Es importante señalar que, aunque estas aplicaciones y plataformas han democratizado la creación de deepfakes, la calidad y realismo de los videos generados por estas herramientas todavía pueden no ser lo suficientemente convincentes como para engañar al público en general. No obstante, el avance acelerado de esta tecnología insinúa que los deepfakes de alta calidad podrían estar al alcance de la mayoría en un futuro cercano. Esta democratización de la tecnología manipuladora transforma a cada usuario de smartphone en un posible difusor de desinformación, intensificando así la necesidad imperante de enfrentar esta amenaza.

Buscando soluciones

Además de los gobiernos, las plataformas digitales y la prensa, los ciudadanos también poseen un rol crucial en la lucha contra la desinformación. Mediante una alfabetización mediática robusta y una verificación responsable de fuentes, pueden erigirse como la primera línea de defensa contra los deepfakes y otros medios de desinformación.

Junto a la educación, las herramientas tecnológicas para detectar manipulaciones digitales son cruciales. Google, consciente de la necesidad de detectar lo creado por IA, está desarrollando sistemas avanzados para identificar contenido generado por IA. “¿Qué pasa con el problema de los deepfakes?” cuestiona Demis Hassabis, CEO de Google DeepMind, subrayando la importancia de construir sistemas eficientes de detección ante la proximidad de otra temporada electoral conflictiva en 2024.

Los deepfakes ya han tenido incidencias en procesos electorales. En 2020, durante las elecciones de Delhi en la India, se utilizaron deepfakes para alterar discursos políticos y desinformar al electorado, según MIT Technology Review.

Estas herramientas de detección analizan distintos aspectos de los archivos multimedia, como inconsistencias en la iluminación y textura, para determinar si un contenido ha sido manipulado. Algunas aplican técnicas de aprendizaje profundo para comparar los videos y las imágenes con una base de datos extensa de contenido auténtico, identificando así las alteraciones.

Si bien ya hay empresas que ofrecen soluciones técnicas en tiempo real, la mera tecnología no lo soluciona todo. Estas herramientas son necesarias, pero no suficientes.

Lecciones de la crisis en Gabón

El tumultuoso episodio vivido por Gabón subraya la urgencia con la que todos los países, incluido el nuestro, deben reflexionar sobre los riesgos que conllevan los deepfakes. Después de la aparición de un video sin sonido, el cual se dice incitó el fallido golpe de estado del 2019, el gobierno de Gabón, en medio de controversias electorales presidenciales del año en curso, adoptó medidas extremas, tales como apagones de internet y toques de queda.

Aunque estas medidas fueron instauradas con la intención de proteger la estabilidad nacional contra las potenciales amenazas de desinformación, irónicamente, terminaron por agudizar aún más las tensiones existentes. Tras confirmarse la reelección presidencial en agosto de este año, un golpe puso fin a más de cinco décadas del régimen de la familia Bongo.

Este conjunto de eventos en Gabón enfatiza la crucial importancia de abordar con seriedad y profundidad los riesgos asociados a los deepfakes, desarrollando estrategias que no solamente sean efectivas en la lucha contra la desinformación, sino que también resguarden tanto la integridad informativa como los valores democráticos fundamentales.

Al reflexionar sobre el caso gabonés, resulta crucial visualizar un futuro marcado por el avance acelerado de la tecnología deepfake. Nos vemos en la necesidad de adoptar respuestas que no solo sean ágiles, sino también meditadas y ajustadas a la realidad cambiante y compleja de estas tecnologías emergentes.

Un futuro incierto

La reciente iniciativa legislativa, “Ley que establece los lineamientos para las Políticas Públicas orientadas al desarrollo, uso, regulación e implementación de Inteligencia Artificial en la República Dominicana”, moción presentada por el Senador Franklin Rodríguez de la Provincia San Cristóbal, señala un avance considerable en la gobernanza de IA del país. No obstante, la designación de los deepfakes como una forma de IA de “riesgo limitado y mínimo” en la propuesta, podría ser insuficiente frente al desafío real que representan. Estos, incluso los que carecen de sonido, tienen un gran potencial para causar desestabilización y confusión.

Asimismo, se evidencia una notable ausencia de términos como “desinformación”, “deepfake” o “manipulación digital” en los sitios web de instituciones clave como la OGTIC y el Centro Nacional de Ciberseguridad,[1] así como en la recién publicada Estrategia Nacional de Inteligencia Artificial (ENIA), que menciona este riesgo solo en una ocasión y brevemente. Esta omisión, junto con la falta de medidas proactivas contra estos fenómenos, refleja un vacío preocupante en el reconocimiento y enfrentamiento de estos riesgos por parte de las autoridades. Sería beneficioso que estas instituciones enfocaran más en la desinformación y los deepfakes, desarrollando estrategias específicas para combatirlos y promoviendo investigaciones que exploren su impacto y mitigación desde una perspectiva local.

En el ámbito político, la Ley de Partidos, Agrupaciones y Movimientos Políticos, No. 33-18, es la única legislación que aborda la amenaza de la desinformación, prohibiendo a las entidades políticas “influir por medio de […] desinformación […] sobre los ciudadanos para obtener votos a favor de sus candidatos […], o para provocar la abstención electoral”. Sin embargo, no confronta de manera específica los desafíos que los deepfakes presentan ni proporciona un marco para combatir la desinformación digital, circunscribiendo el problema de la desinformación política solo a las actividades prohibidas de entidades políticas.

Además, es destacable que la legislación no extiende estas prohibiciones a terceros, lo que podría representar una significativa laguna legal. En este marco normativo, actores externos a las entidades políticas formalmente reconocidas podrían, en teoría, desplegar compañas de desinformación sin incurrir en contravenciones a la Ley 33-18, subrayando la urgente necesidad de revisar y actualizar el marco legal vigente para enfrentar de manera más efectiva los riesgos emergentes asociados a la desinformación digital y los deepfakes en el escenario político.

Las implicaciones de la IA y la desinformación son potencialmente vastas y profundas, requiriendo una adaptación y evolución de la legislación y las políticas públicas para proteger la integridad informativa y la seguridad de los ciudadanos. La identificación correcta de los riesgos y una implementación efectiva de medidas de control y prevención son cruciales para asegurar un futuro donde la verdad no sea fácilmente manipulable.

Navegando la nueva ola de manipulación digital

Los deepfakes, más allá de un reto tecnológico, son un fenómeno que desentraña tensiones geopolíticas y debilidades digitales, con el potencial de inflamar conflictos históricos. La facilidad de acceso magnifica el peligro, democratizando la manipulación digital. Es vital una solución multifacética: educación mediática, uso de herramientas de detección, y legislación equilibrada que atenúe riesgos protegiendo la libertad de expresión. El proyecto de ley y la ENIA constituyen un avance significativo, pero se debe abordar integralmente los riesgos de los deepfakes para asegurar estabilidad duradera.

La gravedad de esta amenaza resalta la necesidad de afinar nuestro enfoque y adoptar estrategias pragmáticas. No solo necesitamos fortalecer nuestras leyes y utilizar herramientas de detección de deepfakes en tiempo real, sino también fomentar un discernimiento digital agudo en cada dominicano. En este entorno digital en constante evolución, la educación y la conciencia son igual de esenciales que la legislación y la tecnología. Solo mediante la combinación de estos elementos podemos aspirar a navegar con seguridad en este mar de manipulación digital, asegurando un futuro en el cual la verdad y la claridad puedan prevalecer sobre la confusión y la desinformación.

Fuentes

N.B. Las traducciones de los títulos son del autor.

Bazarkina, D. y E. Pashentsev. «Malicious use of artificial intelligence» (Uso malicioso de la inteligencia artificial). Russia in Global Affairs. En: https://eng.globalaffairs.ru/articles/malicious-use-ai/ (2020).

Bogart, Laura M. y Sheryl Thorburn. «Are HIV/AIDS conspiracy beliefs a barrier to HIV prevention among African Americans?» (¿Son las creencias conspirativas del VIH/SIDA un obstáculo para la prevención del VIH entre los afroamericanos?). JAIDS Journal of Acquired Immune Deficiency Syndromes. En: https://journals.lww.com/jaids/fulltext/2005/02010/are_hiv_aids_conspiracy_beliefs_a_barrier_to_hiv.14.aspx (2005).

Breland, Ali. «The Bizarre and Terrifying Case of the “Deepfake” Video that Helped Bring an African Nation to the Brink» (El extraño y aterrador caso del video "deepfake" que ayudó a llevar a una nación africana al borde). En: https://www.motherjones.com/politics/2019/03/deepfake-gabon-ali-bongo/ (15, marzo, 2019).

Goldstein, Josh A., et al. «Generative language models and automated influence operations: Emerging threats and potential mitigations» (Modelos generativos de lenguaje y operaciones de influencia automatizadas: amenazas emergentes y mitigaciones potenciales). En: https://arxiv.org/abs/2301.04246 (2023).

Jee, Charlotte. «An Indian politician is using deepfake technology to win new voters» (Un político indio está utilizando tecnología deepfake para ganar nuevos votantes). MIT Technology Review. En: https://www.technologyreview.com/2020/02/19/868173/an-indian-politician-is-using-deepfakes-to-try-and-win-voters/ (19, febrero, 2020).

Patel, Nilay. «Inside Google’s big AI shuffle — and how it plans to stay competitive, with Google DeepMind CEO Demis Hassabis» (Dentro del gran cambio en IA de Google: cómo planea mantenerse competitivo, con el CEO de Google DeepMind, Demis Hassabis). The Verge. En: https://www.theverge.com/23778745/demis-hassabis-google-deepmind-ai-alphafold-risks (10, julio, 2023).

Poster, Alexander. «The Russian ‘fake news’ campaign that damaged the United States — in the 1980s» (La campaña rusa de ‘noticias falsas’ que dañó a Estados Unidos en los años 80). Washington Post. En: https://www.washingtonpost.com/news/made-by-history/wp/2018/03/12/the-russian-fake-news-campaign-that-damaged-the-united-states-in-the-1980s/  (12, marzo, 2018).

Sharma, Isha, et al. «Examining the motivations of sharing political deepfake videos: the role of political brand hate and moral consciousness» (Examinando las motivaciones del compartir videos políticos deepfake: el rol del desprecio político y la conciencia moral). Internet Research. En: https://cronfa.swan.ac.uk/Record/cronfa62353 (2023).

World Travel & Tourism Council. «Dominican Republic: 2023 Annual Research: Key Highlights» (República Dominicana: Estudio Anual 2023: Puntos Clave). WTTC Economic Impact Research. En: https://uploads-ssl.webflow.com/6329bc97af73223b575983ac/64523ba5e6513917282645d9_DominicanRepublic2023_.pdf

[1] Para verificar la presencia o ausencia de términos específicos en sitios web, se puede emplear la función de búsqueda avanzada de Google usando el operador "site:". Este operador restringe los resultados de búsqueda a un dominio específico. Por ejemplo, para buscar la palabra "desinformación" en el sitio web de la OGTIC, se puede utilizar la siguiente consulta de búsqueda en Google: «site:ogtic.gob.do “desinformación”». De manera analoga, para buscar la palabra "deepfake" en el sitio web del Centro Nacional de Ciberseguridad, la consulta sería: «site:cncs.gob.do “deepfake”». Al 20 de octubre de 2023, ninguna de las palabras clave indicadas en el texto principal fueron encontradas en los sitios web de estas instituciones clave, con la excepción de “desinformación” que apareció en el sitio web de OGTIC. Sin embargo, este término sólo se encontraba en una nota de prensa datada en 2017 (es decir, de la administración anterior) y en el texto de la Ley General de Libre Acceso a la Información Pública, No. 200-04, una ley promulgada durante la presidencia de Hipólito Mejía.