La inteligencia artificial (IA) ya no es un concepto del futuro para aquellos que vimos Los Supersónicos o “Back to the future”. Es una herramienta presente que está redefiniendo industrias, procesos y modelos de negocio a una velocidad sin precedentes. Desde sistemas de recomendación hasta diagnósticos médicos asistidos por algoritmos, su aplicación se ha vuelto transversal. Pero este auge también plantea una pregunta ineludible para quienes trabajamos en temas de competencia económica: ¿estamos preparados para regular la IA sin matar la innovación?

Una estructura de mercado compleja (y peligrosa si no se entiende bien)

 El mercado de la IA no es un mercado único; es una cadena vertical de segmentos interconectados: chips, hardware, software, servicios en la nube, datos y aplicaciones. Y en cada uno de estos eslabones ya estamos viendo señales claras de concentración:

  • Nvidia controla más del 80% del mercado de chips para IA, esenciales para el entrenamiento de modelos complejos.
  • Amazon Web Services, Microsoft Azure y Google Cloud concentran más del 70% del mercado global de servicios en la nube, lo que les otorga poder sobre un insumo crítico: la capacidad de cómputo.
  • Muchas de estas empresas también integran verticalmente software, hardware y plataformas, dificultando la entrada de nuevos competidores.

Esta concentración no es ilegal per se, pero sí plantea preguntas difíciles. ¿Son estos recursos esenciales para competir? ¿Qué pasa si se bloquea el acceso a estos recursos? ¿Estamos ante nuevos “guardianes” del ecosistema tecnológico?

IA como facilitadora de colusión silenciosa 

Uno de los riesgos más inquietantes, fuera del mercado de IA en sí, es que se convierta en una herramienta y que la IA puede facilitar prácticas anticompetitivas sin necesidad de acuerdos formales. Algoritmos que aprenden a coordinar precios, detectar comportamientos del mercado y actuar en consecuencia. La colusión tácita ahora puede automatizarse, sin almuerzos secretos ni llamadas cifradas.

Ya existen precedentes, como el caso en Alemania donde estaciones de gasolina utilizaron softwares de precios que terminaron alineando sus tarifas de forma sospechosamente eficiente. ¿Estamos listos para detectar y sancionar este tipo de prácticas?

¿Regular o esperar? 

Muchos reguladores del mundo aún cargan el trauma de haber llegado tarde al abordar la dominancia de las plataformas digitales. Esta vez, sin embargo, la Unión Europea ha optado por la proactividad.

La UE fue la primera región en aprobar una legislación integral sobre inteligencia artificial: el AI Act, aprobado provisionalmente en 2024, que establece un enfoque basado en el riesgo. Este marco distingue entre aplicaciones de alto riesgo, riesgo limitado y riesgo mínimo, exigiendo obligaciones diferentes para cada categoría. Las empresas que desarrollen IA de alto riesgo deberán cumplir con requisitos estrictos de transparencia, gobernanza de datos, trazabilidad y supervisión humana.

Además, la Comisión Europea ha sido clara en que el Derecho de la Competencia también debe evolucionar para lidiar con los desafíos que plantea la IA, especialmente en lo relativo a concentración de datos, sesgo algorítmico y condiciones de acceso a insumos esenciales. La comisaria Margrethe Vestager, líder en materia de competencia, ha enfatizado que se investigarán activamente los comportamientos excluyentes en el sector tecnológico y que se evaluará cómo las prácticas algorítmicas pueden distorsionar la competencia.

Complementos normativos como el GDPR también establecen límites al uso indiscriminado de datos personales, un recurso crítico para entrenar modelos de IA. Sin acceso justo a datos, muchos actores quedan automáticamente fuera del juego.

En la República Dominicana no estamos al margen de esta conversación. Desde 2022 contamos con una Estrategia Nacional de Inteligencia Artificial (ENIA) que busca insertar al país en la Cuarta Revolución Industrial, apostando por el desarrollo del talento, la innovación y la autonomía tecnológica. Esta estrategia está alineada con la Política Nacional de Innovación y con la Estrategia Nacional de Ciberseguridad.

Es un paso valiente que nos posiciona como un país que quiere estar listo, no reaccionar tarde. Pero también nos impone el deber de pensar, desde ya, en cómo regulamos el uso de IA en nuestros mercados. En un país donde garantizar el Derecho de la Competencia y la protección de datos ha sido una promesa vacía por años, en donde la legislación no nos permite siquiera fomentar o estimular el cumplimiento ¿Vamos a esperar a que surjan los problemas, o vamos a prepararnos para abordarlos? Antes de pensar en regular la IA, tenemos que reforzar nuestro marco regulatorio en donde la IA puede tener un papel importante y riesgoso como la Ley de Defensa de la Competencia y la Ley de Protección de Datos.

La IA es una herramienta con un potencial extraordinario para mejorar la vida humana. Pero ese potencial no puede desarrollarse plenamente si se convierte en un terreno reservado para unos pocos actores dominantes, ni si se utiliza para excluir, manipular o sesgar.

Así que ¿En cuál lado de la historia queremos estar? En el de quienes ven venir el cambio y se preparan con visión, responsabilidad y criterio. O en el de quienes lo ignoran hasta que es demasiado tarde.

La decisión es ahora. Y la oportunidad también.

Nicole Rizik

Abogada

Abogada y Consultora Jurídica, fundadora de Rizik Advisory. Máster en Derecho de Competencia (LLM) cursado en Kings College of London.

Ver más