¿IA-fobia europea? A diferencia de otras regiones Europa ha optado por no improvisar con la inteligencia artificial. Su estrategia es clara: regular antes de que la tecnología se desborde. El AI Act o Reglamento 2024/1689 por el que se establecen normas armonizadas en materia de inteligencia artificial es reflejo de ese enfoque. No se trata solo de establecer reglas, sino de intentar contener los riesgos antes de que aparezcan. Es, en cierto modo, una política de anticipación frente a lo desconocido e incluso la necesidad de controlar lo que se teme.

Hay una lógica respetable en esa postura: proteger al ciudadano, preservar derechos fundamentales y prevenir disfunciones graves para impedir que las empresas tecnológicas exploten sin límites los datos de individuos y empresas. Sin embargo, aunque loable esa lógica también tiene un costo. En sectores como el financiero, donde la innovación no es una opción sino una condición de supervivencia, una regulación demasiado rígida puede frenar avances y aniquilar innovaciones que ni siquiera han terminado de nacer. La pregunta no es si se debe regular para proteger. La pregunta es si se está regulando para fomentar la innovación y la protección o simplemente desde el miedo.

Regulando para el control total: de lo macro a lo micro. El citado AI Act que entró en vigor en 2024 y empieza a aplicarse por etapas en 2025, regula los modelos de IA de uso general, como los modelos fundacionales (alimentados y entrenados con datos disponibles), que luego pueden emplearse en diversos sectores, incluido el financiero. El reglamento establece obligaciones diferenciadas según el nivel de riesgo, pero impone un conjunto mínimo de exigencias incluso para los modelos reutilizados en contextos no originalmente previstos.

En resumen, las obligaciones y aspectos más relevantes para quienes operan en servicios financieros incluyen:

  • Obligación de transparencia
  • Trazabilidad técnica
  • Gestión de riesgos sistémicos
  • Restricciones de copyright / derechos de autor
  • Notificación de incidentes graves
  • Responsabilidad compartida en la cadena de uso

Estas exigencias generan un nuevo marco de obligaciones contractuales, operativas y legales que afectan tanto a desarrolladores como a empresas usuarias de tecnología. En el sector financiero, esto se traduce en costos y presiones adicionales sobre departamentos legales, de cumplimiento y de riesgos tecnológicos.

Estados Unidos: los actores hacen y el regulador observa. El enfoque estadounidense es pragmático y si se quiere temerario: no hay ley federal general sobre IA. En el mejor de los casos, se trabaja con guías éticas, marcos sectoriales y principios voluntarios. Esto favorece la competitividad, pero también deja al sistema expuesto a sesgos no corregidos y falta de garantías comunes.

La innovación ocurre rápido, pero sin precaución, la protección de usuarios del sistema financiero no figura entre las prioridades de reguladores o autoridades competentes (si las hay). Se podría afirmar que el modelo estadounidense no considera al regulador como competente para supervisar sectores en los que el Estado no juega un rol predominante.

Tal como han señalado legisladores norteamericanos, existe un riesgo real de que los reguladores actúen más como observadores pasivos que como agentes activos de control y protección.

La ausencia de una legislación federal clara y unificada sobre inteligencia artificial en EE. UU. ha generado un ecosistema donde las empresas tecnológicas y financieras avanzan rápidamente, pero sin un marco robusto que garantice la transparencia, la gestión de riesgos sistémicos o la protección efectiva del usuario final. La dependencia de guías éticas voluntarias y marcos sectoriales dispersos puede resultar insuficiente para mitigar los sesgos algorítmicos, prevenir fraudes o evitar impactos negativos en consumidores y la estabilidad financiera.

América Latina: esperar mirando hacia afuera. La región, con excepciones puntuales, no tiene regulación detallada o específica. Como no hay producción local significativa de IA, consume tecnología de otros. Esta pasividad puede volverse dependencia, pero también es una oportunidad para pensar antes de copiar.

Paradójicamente, esta pasividad puede ser una oportunidad: aprender antes de legislar.  Al no estar atada a modelos regulatorios preexistentes, América Latina tiene la posibilidad de diseñar políticas públicas y marcos legales flexibles adaptados a sus realidades socioeconómicas, institucionales y tecnológicas. Esto implica un análisis profundo de los riesgos específicos que la IA puede generar en sus mercados financieros, tales como la exclusión financiera, la privacidad de datos, el sesgo algorítmico y la estabilidad sistémica.

Además, la región puede aprovechar las lecciones aprendidas en otras jurisdicciones para evitar errores regulatorios comunes. Por ejemplo, puede optar por un enfoque escalonado que combine principios de transparencia, responsabilidad y gestión de riesgos, con incentivos para la innovación responsable. Este modelo permitiría fomentar el desarrollo de soluciones financieras basadas en IA, como el crédito automatizado o la detección de fraudes, sin sacrificar la protección del consumidor ni la integridad del sistema.

China: desarrollo con control ideológico. China combina desarrollo tecnológico con fuerte control estatal. La IA está regulada con criterios políticos e ideológicos. Esto permite soluciones locales potentes, pero limita la apertura y la interoperabilidad. La innovación ocurre, pero bajo vigilancia.

Así, el regulador tiene como prioridad la estabilidad de un régimen y procura siempre alinear las innovaciones tecnológicas con los intereses del estado. En ese orden, la protección del usuario se produce como un efecto colateral de ese objetivo, no como un fin en sí mismo.

Regular con Inteligencia natural: Gobernar la innovación en IA sin ahogarla. No se trata de elegir entre regular o no, sino de cómo hacerlo. Europa regula con rigor y temor, EE. UU. con supuesta libertad e imprudencia, América Latina todavía no elige, y China regula desde el poder teniendo como prioridad el statu-quo. El sector financiero necesita reglas, pero también libertad para avanzar sin eliminar la innovación que puede estar en una etapa silente y embrionaria.

La motivación de una regulación debe ser crear un marco ordenado que garantice protección sin frenar la innovación, y que defienda a un sector financiero que enfrenta desafíos crecientes, tanto de actores cada vez más agresivos como de empresas no financieras (como las tecnológicas) que incursionan con una mentalidad disruptiva.

La protección y la innovación no son contradictorias; una regulación bien diseñada puede armonizar ambas, permitiendo un desarrollo sostenible y seguro. Regular con inteligencia, no con miedo ni con imprudencia. Debe admitirse que no es tarea fácil, pero el regulador debe esforzarse por maridar ambos ingredientes y lograr ese equilibro necesario con el objetivo último de recrear un ecosistema o mercado que combine la innovación y la protección.

Referencias bibliografías:

  • Bensoussan, Alain , Jeremy y Virgnie. Le règlement européen sur l’intelligence artificielle, Synthèse, points clés et analyse article par article, Livre | 1ère édition 2025 | Europe ;
  • Barrio, Andrew, Claves Prácticas Reglamento UE de inteligencia artificial (Incluye los actos de desarrollo y ejecución de la AI Act) Abril 2025 Ediciones, Francis Lefebvre ;

https://www.gov.uk/government/consultations/ai-regulation-a-pro-innovation-approach-policy-proposals/outcome/a-pro-innovation-approach-to-ai-regulation-government-response

Angel Santana Gómez

Abogado y consultor

Licenciado en Derecho por la Pontificia Universidad Católica Madre y Maestra, PUCMM (2001). Maestría en Derecho de los Mercados Financieros de la Universidad Pontificia Comillas, Madrid (2006) y Máster en Derecho Internacional de Negocios y Administración de Empresas en la Escuela Superior de Ciencias Económicas y Comerciales, París, (2010) (École Supérieure des Sciences Économiques et Commerciales - ESSEC). Previamente abogado asociado en la firma Headrick, Rizik, Álvarez y Fernández en Rep. Dominicana y actual Director Legal en la división de banca de inversiones y servicios globales de valores del banco Societe Generale en Francia, encargado del área de servicios financieros a emisores de acciones y obligaciones cotizadas en las bolsas de valores europeas y financiamientos estructurados a fondos de inversiones públicos y privados. Miembro del comité de estudio de emisores de valores del observatorio jurídico de la Asociación Francesa de Profesionales del Mercado de Valores (AFTI por sus siglas en Francés) y miembro de la Asociación Nacional de Juristas de Bancos franceses (ANJB). Instructor y conferencista sobre reglamentación financiera, custodia de valores y servicios post trade, operaciones financieras en los mercados de capitales, financiamientos estructurados internacionales y fondos de inversión.

Ver más