Se acerca el día de las Elecciones Generales Ordinarias Presidenciales, Senatoriales y de Diputaciones en nuestro país. Al igual que en la pelota (baseball para los extranjeros que nos leen), la política, en general, es un tópico que provoca que los ánimos se caldeen, levanta pasión, genera furor y obnubila la razón de muchos. Tanto así que, en estos tiempos donde cobra vida la prerrogativa fundamental de elegir y ser elegido, es donde nacen los mejores investigadores o archivistas de medios, esos que encuentran alocuciones perfectas para demostrar que algunos candidatos hacen suyo el refrán donde dije digo digo Diego. También, surgen grandes reporteros, detectives o paparazzi, quienes nos permiten ver el paso a paso de estas figuras, incluyendo, por supuesto, sus momentos más incómodos y comportamientos estrafalarios. Asimismo, es un periodo de memes, stickers y MUCHA INFORMACIÓN de todo tipo, veraz, imprecisa o manipulada.
Este 2024 es especial, considerado uno de los mayores años electorales que hemos tenido y tendremos en la historia global según el Anchor Change Election Cycle Tracker. Una gran parte de la población mundial acudirá a las urnas, más de 60 países tienen elecciones, entre los que destacan: India, México, Estados Unidos y los 27 Estados miembros de la Unión Europea con las elecciones al Parlamento Europeo. Para todos estos países la mayor batalla es la desinformación. La experiencia del pasado ha generado la alerta, por ejemplo, las mencionadas campañas Spamouflage Dragon originadas en China. Ciertamente, ha sido costumbre, en cualquier lugar del mundo por recóndito que se encuentre, utilizar este tipo de contextos para desinformar a la población. Pero este año se añade un nuevo ingrediente, son las primeras elecciones presidenciales con la inteligencia artificial generativa en manos de todos.
Según el Foro Económico Mundial en su Global Risks Report 2024, la desinformación generada con IA es uno de los mayores riesgos que enfrentamos y enfrentaremos en los próximos años. Si bien es cierto que, esta nueva tecnología ha sido utilizada por la clase política para su beneficio, la vocera hecha con inteligencia artificial de Xóchitl Gálvez durante su campaña es la mejor muestra. No menos cierto es que, el empleo de esta herramienta por personas con mala intención, representa una amenaza adicional que puede afectar la decisión de un votante, ya que cualquier persona con solo ver un contenido irreal creado puede ser condicionada, convirtiéndose dicho medio en una fuente generadora de respaldo o, muy por el contrario, de oposición y descrédito.
En ese tenor, el actual presidente de la Junta Central Electoral de nuestro país, Román Jáquez Liranzo, en declaraciones, afirmó que la desinformación a través de noticias falsas es un gran desafío que debemos enfrentar, por lo que pidió apoyo a los medios de comunicación para contrarrestar esta práctica que genera inestabilidad. También, expresó que el marco normativo existente no les permite tanto campo de acción de manera directa, pues este órgano solo puede denunciar ante el Ministerio Público para la persecución de los delitos electorales, como se establece en el artículo 309 de la Ley Orgánica de Régimen Electoral.
Siendo así, la Junta Central Electoral ha optado por la educación digital como estrategia para combatir la desinformación. ¡No difundas información falsa! es una de sus campañas al respecto, invitando a la población a verificar antes de difundir cualquier noticia. Es por esto que decidimos sumarnos a este llamado. En lo adelante, compartiremos casos de uso reales donde se utiliza y se ha utilizado la IA con objetivos espurios en el marco electoral, en miras de advertir a los ciudadanos sobre estos peligros. Lo anterior, porque es vital que todos estemos tan informados y capacitados como los que buscan aprovecharse de nuestra ingenuidad. De este modo, podemos prepararnos para reconocer y cuestionar los usos no éticos de esta tecnología en la materia.
Por una parte, la inteligencia artificial permite una segmentación demasiado precisa de los votantes. Como comentamos en nuestro artículo anterior, quienes están detrás de las plataformas y aplicaciones, conocen nuestro comportamiento habitual en línea y con frecuencia cedemos datos al navegar. Esta base puede ser explotada para enviar mensajes altamente personalizados, cuyo contenido pudiera manipularnos sin pleno conocimiento de ello. Por otra parte, esos famosos bots impulsados por IA que pueden distorsionar la percepción de lo que es ampliamente apoyado en realidad.
Ahora bien, donde hay que colocar el énfasis de riesgo en estos procesos es en los deepfakes, una combinación de “deep” proveniente de la técnica del Deep learning (aprendizaje profundo) y “fake” como su traducción al español, falso. Se trata de imágenes, videos o audios que parecen ser reales, pero que han sido generados a través de modelos de redes neuronales generativas. En otros términos, se trata de contenido sintético que busca que las personas hagan algo que nunca pasó o digan lo que no dijeron. La primera vez que captó nuestra atención este proceso en el ámbito político fue en 2017, cuando investigadores de la Universidad de Washington lograron crear un video digital del expresidente de EE.UU., Barack Obama, en el que dice con su voz muchos de sus logros presidenciales. También, un año más tarde, nos causó impacto lo acontecido en África, el presidente de Gabón, Ali Bongo, tenía tiempo sin dar señales de vida pública, para evitar que siguieran los cuestionamientos, publicaron un video suyo con motivo del nuevo año y todos se alertaron porque no tenía arrugas, sus manos estaban inflamadas y no parpadeaba.
Luego, verdaderamente vimos el giro oscuro que podría significar el uso de inteligencia artificial, en el momento en que se hicieron públicos una serie de videos de la entonces presidenta de la Cámara de Representantes en los Estados Unidos, Nancy Pelosi. La intención fue hacer parecer que ella estaba bajo los efectos del alcohol y que tenía dificultades de dicción en sus presentaciones. Lo anterior, fue aprovechado por sus opositores. En ese momento, no se utilizó IA, pero representó una mirada clara de lo que el futuro aguardaba.
¡Crónica de una muerte anunciada! En 2020 circularon videos deepfakes del presidente ruso Putin y del líder norcoreano Kim Jong-un, donde ambos señalaban que no necesitaban interferir en las elecciones de EEUU, ya que sería el propio Estados Unidos que arruinaría su democracia por sí mismo. En 2022, veíamos un video viral del presidente ucraniano Volodymyr Zelensky en el que parecía decirles a los ucranianos que depusieran sus armas, luego fue desmentido. En ese entonces no habíamos llegado al boom de la inteligencia artificial, era muy costoso y requería muchas horas de grabación para tener un resultado medianamente creíble. Hoy nos encontramos ante una evolución tecnológica tal que Voice Engine de OpenAI es capaz de clonar cualquier voz con muestras de 15 segundos de duración y la democratización es tan impresionante que los aplicativos que permiten generar contenidos de este tipo tienen planes desde 1 dólar como en ElevenLabs.
¡Qué locura! Luego de que el 2023 fuera el año de la IA generativa ya se imaginarán todo lo que ha pasado… para que tengan una idea les contaré de dos casos recientes:
1.Residentes de Nueva Hampshire recibieron llamadas automáticas con la supuesta voz de Joe Biden, advirtiéndoles que no voten en las primarias y guardaran su voto para las generales de noviembre intentando socavar el proceso; caso que llegó a la Fiscalía.
2.Una red de operaciones de influencia con sede en Rusia, llamada Doppelgänger clona medios auténticos para crear medios informativos falsos dedicados a la política, asimismo, aprovecha las redes sociales para difundir campañas de desinformación. Lo expuesto ha dado lugar al inicio de una investigación a Facebook y Meta por parte de los reguladores de la Unión Europea, con la finalidad de evaluar su gestión de contenido político engañoso y de desinformación para determinar si han incumplido con la Ley de Servicios Digitales.
Por el desconcierto que provoca esta situación, OpenAI suspendió la cuenta del equipo responsable de la creación de Dean.Bot, chatbot potenciado por ChatGPT que simulaba ser el candidato presidencial demócrata Dean Phillips, explicando que dentro de la política de la empresa claramente está prohibido imitar candidatos políticos a través de sus avances y desarrollos tecnológicos. En esa línea, otras empresas han accionado, Google, por ejemplo, en México presentó la iniciativa Transparencia México con 3 ejes a ejecutarse durante todo el proceso electoral: preparar más de 500 periodistas para validar todo el contenido que sea subido en su red, pudiendo de este modo proceder con seguridad a eliminar todo lo que sea fake; hacer pública toda la información relativa a publicidad que se genere durante el periodo electoral en sus plataformas y la creación de una base de datos con información validada.
Cabe subrayar que, la regulación ha sido considerada como una opción por algunos. California aprobó una ley que prohíbe la publicación y distribución de videos manipulados durante los 60 días anteriores a las elecciones, incluyendo por supuesto el uso de la tecnología que permite crear deepfakes. Corea del Sur aprobó una enmienda a la Ley Electoral para prohibir los ultrafalsos durante la temporada electoral. Adicionalmente, vemos diversos proyectos de ley específicos en ese sentido, Puerto Rico, Uruguay y España son solo unos ejemplos.
Mientras esfuerzos de estos tipos se concretizan en nuestra Quisqueya la bella, pasemos a buenas prácticas para lo que resta del proceso electoral y los días posteriores a las elecciones, toma nota:
- Si perteneces a alguna organización política y uno de tus candidatos es víctima de un ultrafalso, comunícalo de inmediato, no te quedes callado, una respuesta rápida es fundamental.
- Cuando recibas una información que te cause sorpresa o alguna emoción fuerte sobre temas políticos, verifica la fuente y el origen de la misma. Busca la URL por ejemplo.
- Acostúmbrate a revisar y comparar con distintos medios confiables antes de reenviar, por lo regular si un dato es relevante lo encontrarás en más de un lugar oficial.
- Seguro que escuchaste alguna vez que los pequeños detalles marcan la diferencia, así que fíjate si hay faltas ortográficas, si hay alguna distorsión en alguna parte de la imagen, si los movimientos no están sincronizados como de costumbre, si la voz tiene pausas, tonos o discursos inusuales, etc.
Toma en cuenta que cada vez que compartes algún contenido, este tiene el poder de moldear el rumbo de nuestra democracia. En una era de deepfakes y manipulación digital, tu discernimiento es crucial. No permitas que la distorsión y la desinformación dicten nuestro futuro. Sé crítico, sé consciente y no seas cómplice. Una pausa antes de actuar viene bien al curso natural del proceso político.
Nos vemos este domingo 19 de mayo, tu decisión importa, ¡tu voto es tu voz!