Oye Siri, ¿qué clima habrá hoy? Alexa, enciende el aire acondicionado. ChatGPT, revisa por favor la foto de la nevera que te estoy enviando y dime cuáles recetas refrescantes puedo preparar con esos ingredientes que tengo. A diario interactuamos con asistentes de voz, motores de búsqueda y sistemas de recomendación. Cada vez más, los distintos sectores se apoyan en algoritmos de aprendizaje supervisado, de aprendizaje no supervisado, de aprendizaje por refuerzo y de redes neuronales profundas. En efecto, por ejemplo, esta tecnología ha contribuido como soporte en el diagnóstico de imágenes médicas, en la gestión de la relación con los clientes, en la publicidad inteligente, en la restauración de fotografías y videos, en la detección de fraudes financieros, en la eficiencia de las administraciones públicas, en la efectividad educativa y otros ámbitos de relevancia nacional e internacional.
Lo cierto es que, la inteligencia artificial inspira una dualidad de percepciones. Por un lado, un grupo experimenta FOMO (Fear of Missing Out), temor a quedarse atrás en la era de la IA, urgencia constante por adoptarla y utilizarla en todos los aspectos de sus vidas. Mientras que, por el otro lado, está el grupo que experimenta JOMO (Joy of Missing Out), sintiendo satisfacción al evitar involucrarse con la IA, entendiendo que la adopción generalizada representaría el fin de los seres humanos. En resumidas cuentas, genera entusiasmo o ansiedad ¡ya lo sé! En palabras del científico Stephen Hawking la inteligencia artificial puede ser lo mejor o lo peor que le pase a la humanidad. Sea cual sea la perspectiva que se asuma, claramente el potencial de esta tecnología, tanto para mejorar o perjudicar el mundo, es mucho mayor que las tecnologías anteriores. Lo expuesto se debe a que en los últimos años ha mostrado un despliegue vertiginoso, de impacto inmediato y con resultados sofisticados cada vez más indistinguibles de la realidad.
Justamente, el hecho de que hasta las aplicaciones ventajosas y beneficiosas de la IA conlleven riesgos potenciales que pueden desencadenar en efectos adversos, nos llevó a todos al siguiente planteamiento ¿hay que regular la inteligencia artificial? La tendencia regulatoria mostrada en el AI Index Annual Report del 2024 elaborado por el Stanford Institute for Human-Centered Artificial Intelligence nos da una respuesta afirmativa a esta incógnita. Conforme las legislaciones analizadas, se han aprobado ya 148 leyes relacionadas con la IA. No obstante, es crucial el diseño y la dirección de estas reglas, ya que, de estar mal configuradas pueden sofocar y frenar la innovación. Asimismo, es preciso recordar que, las regulaciones suelen tardar años en su desarrollo y aplicación, tanto así que cuando logran ser promulgadas es probable que la tecnología ya haya avanzado, dejándolas obsoletas. Por último, como las tecnologías son extremadamente diversas, es difícil que sean efectivas a todos los posibles usos y desarrollos. Sin embargo, no es excusa para quedarnos de brazos cruzados. Como bien señala Andrew Ng, fundador de DeepLearning.AI, “una regulación meditada sería mucho mejor que la ausencia de regulación”.
Al respecto, entre las iniciativas que destacan para poner control a la IA, más allá de las famosas leyes de la robótica de Isaac Asimov, encontramos: la Recomendación sobre la ética de la inteligencia artificial de la UNESCO, los Principios de la OCDE sobre la Inteligencia Artificial, las Directrices éticas para una IA fiable del Grupo de Expertos de Alto Nivel de la Comisión Europea, la Declaración de Bletchley sobre la seguridad de la IA, compromisos públicos voluntarios asumidos por las Big Tech, las medidas provisionales para la gestión de los servicios de inteligencia artificial generativa en China, la Orden Ejecutiva sobre el desarrollo y el despliegue seguro y fiable de la IA en Estados Unidos, entre otros. Por supuesto, mención especial a la AI Act de la Unión Europea, popularizada como la primera ley de inteligencia artificial en el mundo, considerada como tal por su exhaustividad en comparación con las demás normas existentes, aprobada de forma definitiva el 21 de mayo del presente año y que estará aplicándose de forma progresiva hasta el 2026 cuando entrará completamente en vigor.
Precisamente, en lo adelante, nos vamos a enfocar en este Reglamento de la Unión Europea por el que se establecen normas armonizadas en materia de inteligencia artificial, instrumento normativo que ya es una realidad y que se ha convertido en el mayor referente para la elaboración de proyectos de ley en distintos países como es el caso de Chile y que seguro será considerado en República Dominicana cuando vayamos por esa conversación. Llama la atención que, al momento de hacer mención de esta norma, se dice tanto Ley como Reglamento, cuestión que probablemente provoque confusión. Lo que sucede es que los reglamentos de la Unión Europea se aplican directamente como leyes en los países miembros sin necesidad del proceso de transposición que se lleva a cabo para incorporar las directivas.
Adentrándonos en el fondo, nos parece subrayable que, a criterio de expertos como Javier Plaza Penadés, esta no es una regulación integral y completa de todas las cuestiones jurídicas relacionadas con la IA, pues por ejemplo se dejan fuera materias tan importantes como la responsabilidad civil o no se abordan con el rigor requerido algunos tópicos, tal la problemática de propiedad intelectual respecto a los resultados que ofrece al usuario la IA generativa, lo que a mi juicio se dio de esta manera para evitar una eterna y estéril discusión como aquella que no nos ha permitido reformar nuestro Código Penal en el país. Ahora bien, independientemente de lo esbozado, resulta un hecho incontrovertible que la citada ley es un hito significativo, convirtiendo su aprobación final en un “momento histórico” como bien lo definió Mathieu Michel, secretario de Estado belga para la digitalización, cuyo país ostenta este semestre la presidencia rotatoria de la UE.
En ese orden, el reconocido experto en IA Lorenzo Cotino, valora positivamente esta Ley. Tanto así que, ha apuntado en distintos foros que este Reglamento Europeo de Inteligencia Artificial supone una transición de los principios éticos a normativas obligatorias para un desarrollo y uso responsable de la IA. También, ha señalado que brinda seguridad jurídica y confianza en la tecnología a través de mecanismos de supervisión efectivos basados en evaluaciones y auditorías regulares, técnicas de análisis de riesgos y estudios de impacto para mitigar dichos riesgos.
En mi opinión, lo más destacable es ese acertado enfoque basado en niveles de riesgos que le caracteriza. Esto quiere decir que cada aplicativo que incorpora IA deberá ser tratado en función de la amenaza potencial que represente para la sociedad, cuanto mayor daño pueda causar más estricta es la norma. Por supuesto, los algoritmos de IA que sugieren correcciones ortográficas y gramaticales mientras un usuario escribe, no son iguales a los vehículos de conducción autónoma total que mediante cámaras, radares, sensores, algoritmos complejos y sistemas de aprendizaje automático se desplazan sin intervención humana ¿hace sentido no? Definitivamente, hay niveles y HAY NIVELES de riesgos en la IA y este marco regulador define cuatro que explicaremos a continuación.
-Riesgo inaceptable: Quizás vieron en las noticias que un estudio de la Universidad de Stanford, dirigido por el Dr. Michal Kosinski publicado en Nature Scientific Reports, sugiere que un software de reconocimiento facial puede predecir la afiliación política de una persona con un 72% de precisión con solo analizar más de un millón de perfiles de redes sociales y sitios de citas en EEUU, Canadá y Reino Unido. Conforme el Reglamento esto causaría una ALERTA ROJA. El AI Act establece una serie de prácticas prohibidas, todas aquellas donde se pretenda utilizar IA indebidamente como una herramienta de manipulación, explotación y control social.
Quedan prohibidas, salvo las excepciones establecidas en la norma por motivos de seguridad o asuntos médicos, la introducción en el mercado, la puesta en servicio para este fin específico o el uso de:
- Sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual.
- Asimismo, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público.
- Adicionalmente, los sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos.
- También, sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión.
- Entran en la lista, los sistemas de IA para realizar evaluaciones de riesgos de personas físicas con el fin de evaluar o predecir la probabilidad de que cometan una infracción penal basándose únicamente en la elaboración de sus perfiles o en la evaluación de los rasgos y características de sus personalidades.
- Como era de esperarse, aquellos sistemas que permitan la puntuación ciudadana basados en características personales y de comportamiento social causando un trato perjudicial o desfavorable hacia determinadas personas físicas o grupos enteros de personas en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente y/o un trato perjudicial o desfavorable hacia determinadas personas físicas o grupos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este.
- Por supuesto, los sistemas de IA que se sirvan de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo de alterar de manera sustancial su comportamiento, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que se tome una decisión que de otro modo no se habría tomado, provocando o aumentando la probabilidad de que se le genere perjuicios considerables.
- Sistemas de IA que exploten alguna de las vulnerabilidades de una persona o un grupo específico derivadas de su edad o discapacidad, o de una situación social o económica específica, con el objetivo de alterar de manera sustancial el comportamiento de dicha persona o de una persona que pertenezca a dicho grupo de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra.
-Riesgo alto: ¿Conoces a Da Vinci? No te confundas, no te estoy hablando de Leonardo, más bien, me refiero al sistema quirúrgico que se utiliza para realizar distintos tipos de cirugías de una forma poco invasiva, sería un ejemplo de sistema de alto riesgo conforme el Reglamento, pues las cirugías asistidas por robots entran en esta categoría. En efecto, se identifican como tal aquellos sistemas o aplicativos que incluyan la tecnología de IA en componentes de seguridad de los productos; en la gestión de trabajadores y acceso al trabajo como los softwares de clasificación de CVs para procedimientos de contratación; también, los que se aplican en servicios públicos y privados esenciales como la calificación crediticia que niega la oportunidad de obtener un préstamo a un ciudadano; están los de gestión en migración, siendo una muestra el examen automatizado de solicitudes de visado; aquellas soluciones que inciden en la administración de justicia y procesos democráticos como la utilizada para buscar resoluciones judiciales; claro, los robotaxis forman parte de este grupo, entre otros.
Ciertamente, entran en esta clasificación aquellos sistemas que representen riesgos en materia de salud, seguridad, transporte, educación, economía y derechos fundamentales en general. Están sujetos a operar en cumplimiento de obligaciones estrictas antes de que puedan introducirse en el mercado. En otros términos, tendrán que ser trazables, robustas, seguras y fiables, mostrar una alta calidad de sus datos de entrenamiento, documentación detallada sobre el alcance y la finalidad del sistema, así como medidas claras de supervisión humana para evaluar y mitigar riesgos de forma constante.
-Riesgo limitado: Son aquellos sistemas que deberán cumplir con obligaciones específicas de transparencia para garantizar que estemos debidamente informados. Por ejemplo, que si estamos interactuando con Lisa o Sarah sepamos que estamos conversando con chatbots y no con seres humanos. Asimismo, que los proveedores garanticen que el contenido generado por IA sea identificable. Por cierto, ¿ya viste publicaciones en Instagram que tienen la etiqueta de “creado con IA”? Meta coloca esta etiqueta si detecta que cualquier contenido tiene señales de haber sido generado con IA y si una persona marca su propio contenido como generado por IA.
-Riesgo mínimo o nulo: Incluye la mayoría de aplicaciones de nuestro día a día, no tienen consecuencias graves ni un impacto significativo, de ahí que no tengan que cumplir con requisitos. Para muestra, los filtros de spam en nuestro correo electrónico, donde un error puede provocar que un correo que debió estar en nuestra bandeja de entrada se vaya a spam, a todos nos ha pasado.
En otro orden, más allá de los niveles que hemos desglosado, se hace mención especial a la IA de propósito general ¿la conoces? Claro que sí, ¿quién no ha escuchado alguna vez de ChatGPT? Este es el mejor ejemplo de este tipo de modelos. Resulta que el Reglamento tiene años en discusión, estaba en la recta final cuando de repente la IA generativa revolucionó el mundo y hubo que dar unos pasos atrás para nuevas consideraciones inminentes. Y es que no podía haber una norma de inteligencia artificial dejando fuera la generativa, sería como un discurso sin orador. De ahí que, se incorporaron obligaciones de transparencia adicionales en estos casos, documentación técnica actualizada, incluyendo las capacidades y limitaciones, las pruebas y sus resultados, poner a disposición del público un resumen suficientemente detallado sobre el contenido utilizado para entrenar este tipo de modelos, así como cumplir con las legislaciones de derecho de autor y requisitos de ciberseguridad.
A propósito de lo antes expuesto, se ha previsto que, una vez incorporados estos sistemas en el mercado de la Unión Europea, debe haber una gestión continua de calidad y de riesgo, lo que representa una gran tarea para los proveedores y para las autoridades. En ese sentido, se ha establecido una estructura de gobernanza, liderada por la Oficina Europea de IA. En cuanto a las sanciones, las multas varían en función de las infracciones y corresponden a porcentajes del volumen de negocios anual mundial de cada empresa infractora en el ejercicio financiero anterior o un importe predeterminado si esta cuantía fuese mayor. ¿Qué queda entonces? Esperar cómo los proveedores se irán adaptando a estas nuevas reglas, cómo las autoridades garantizarán su implementación y cómo estos ajustes varían las relaciones de los humanos con la IA.
En conclusión, la llamada primera ley de inteligencia artificial, independientemente de los detalles de fondo, nos ofrece una valiosa lección, es preciso equilibrar la protección a los derechos fundamentales y la promoción de la innovación. Es prioridad que la inteligencia artificial se desarrolle con una visión antropocéntrica, siendo beneficiosa para las personas y la sociedad en general. Nos corresponde construir sistemas y aplicativos basados en IA que actúen como catalizador para el progreso social y económico. Quiero que te quedes con este cierre, el poder que le otorgamos a una inteligencia artificial es una decisión humana.