Desde la pornografía no consentida hasta la interferencia electoral, los deepfakes plantean desafíos sin precedentes. Mientras los expertos advierten sobre los peligros y exigen regulaciones, es crucial que los gobiernos, las empresas y la sociedad colaboren para abordar esta amenaza creciente y proteger la integridad de nuestra información e identidades en línea.
La tecnología de los deepfakes ha surgido como una herramienta poderosa, pero controvertida. Un deepfake o falsificación profunda es una técnica de manipulación audiovisual que utiliza inteligencia artificial y aprendizaje profundo para crear contenido sintético altamente realista.
Mediante algoritmos sofisticados, los deepfakes pueden superponer rostros, modificar expresiones, clonar voces y generar movimientos corporales, permitiendo la creación de vídeos, imágenes y audios falsos que son indistinguibles de los originales.
Con el ajuste rápido correcto, todos pueden crear imágenes aparentemente reales o hacer que las voces de figuras políticas o económicas prominentes y artistas digan lo que quieran. Si bien la creación de una falsificación profunda no es un delito penal por sí solo, muchos gobiernos están avanzando hacia una regulación más fuerte al usar la inteligencia artificial para evitar daños a las partes involucradas.
Los signatarios de la carta titulada "Disrupción de la cadena de suministro de Deepfake" –más de 400 expertos en IA, tecnología y ética digital, indican que es necesario establecer sanciones para la producción de pornografía infantil utilizando esta tecnología, establecer sanciones para quienes crean o difunden contenidos dañinos y falsos, y exigir que los desarrolladores y distribuidores de software tomen medidas para evitar que sus productos generen contenido deepfake.
Una encuesta entre 199 líderes de ciberseguridad que asistieron a la Reunión Anual del Foro Económico Mundial sobre Ciberseguridad en 2023 mostró que el 46 por ciento de los encuestados estaban más preocupados por el "avance de las capacidades contradictorias: phishing, desarrollo de malware, deepfakes" en términos de los riesgos que la inteligencia artificial representa para la ciberseguridad en el futuro.
Según el informe State of Deepfakes 2023 de SumSub, la proliferación de vídeos falsos y engañosos producidos con sistemas de IA ha aumentado un 550% entre 2019 y 2023. Esta firma ha detectado un aumento de diez veces en el número de deepfakes a nivel mundial en todas las industrias de 2022 a 2023.
Por ejemplo, el incremento de la incidencia de los eventos de fraude en Filipinas hasta un 4,500% año tras año, seguida de países como Estados Unidos, Vietnam y Bélgica, son cifras son alarmantes y reflejan la rapidez con la que esta tecnología se está desarrollando y difundiendo.
Uno de los aspectos más preocupantes del auge de los deepfakes es su impacto en la industria pornográfica. Los contenidos lascivos y ficticios creados con IA representan el 98% de todos los videos deepfake en línea, con un aumento del 400% en el último año. Además, el 99% de los receptores fueron mujeres, lo que evidencia una tendencia reincidente en el tema de la violencia de género habilitada por la tecnología.
Los deepfakes también representan una amenaza significativa para la identidad de las personas y las empresas. La firma Onfido estima que el fraude deepfake aumentó un 3,000% el año pasado. Esta tendencia es especialmente preocupante de cara a los procesos electorales, ya que el 51% de la población mundial participará en elecciones en el futuro próximo. Los deepfakes tienen el potencial de manipular la opinión pública y socavar la integridad de los procesos democráticos.
A pesar del llamado de los expertos, las estrategias de regulación del desarrollo y uso de la IA se enfrenta a desafíos significativos. Las leyes actuales no señalan ni limitan adecuadamente la producción y distribución de deepfakes, y los requisitos impuestos a los creadores a menudo son ineficaces. Además, las iniciativas regulatorias muestran un desarrollo aislado, lo que compromete el éxito de las iniciativas para abordar este problema.
Los expertos proponen la implementación generalizada de sellos digitales criptográficos a prueba de manipulaciones en fotografías y videos como una solución práctica.
Estos sellos permitirían verificar la autenticidad del contenido utilizando aplicaciones de código abierto. Además, se sugiere que los fabricantes de dispositivos, los desarrolladores de software y las empresas de medios trabajen juntos para popularizar estos métodos de autenticación de contenidos.
A medida que los deepfakes continúa avanzando, se espera que la valoración de mercado de la IA supera los 300 mil millones de dólares en 2025, lo que subraya la importancia de abordar los desafíos asociados con los deepfakes.
Los gobiernos, las empresas y la sociedad en general deben trabajar juntos para desarrollar marcos regulatorios efectivos y soluciones tecnológicas que protejan la integridad de la información y la identidad en un mundo cada vez más digitalizado.
El auge de los deepfakes plantea desafíos sin precedentes para la sociedad en la era digital. Mientras que los expertos abogan por medidas urgentes para abordar esta amenaza, la realidad revelada por el reporte Identity Fraud Report muestra la magnitud del problema.
Solo a través de esfuerzos conjuntos y soluciones innovadoras podremos navegar por el complejo panorama de los deepfakes y salvaguardar los valores fundamentales de nuestra sociedad. Al mismo tiempo, debemos considerar el uso apropiado de las tecnologías de generación de video con inteligencia artificial.
En la medida que crezca su adopción, será cada vez más difícil distinguir un video original de uno generado, siendo la clase que luego debe regular este dilema la catalizadora de su crecimiento durante el año con más elecciones simultáneas en el globo terrestre.
Más allá de girar la cámara o retocar algunas arrugas, estamos empoderando un arma que puede disparar un “tiro por la culata”.