El comienzo del año es un buen momento para reflexionar sobre los retos que éste ofrece y sin duda uno de ello es cumplir con el mandato de la Constitución de 2024, de la aprobación de la nueva Ley de la Jurisdicción Contencioso Administrativa, que finalmente derogue las leyes núm. 1494-47 y núm. 13-07.
Entre los asuntos que se deben considerar para su incorporación al proyecto de ley que actualmente cursa en el Congreso, está lo relacionado con el uso de los sistemas de Inteligencia Artificial (IA), por los futuros tribunales contenciosos administrativos de primera instancia y los tribunales superiores administrativos.
Aunque en oportunidades anteriores se han expuesto algunas reflexiones sobre los sistemas de IA a cuya lectura se remite a los interesados (Hernández-Mendible, Víctor R. y Santos Fernández, Margaret, El derecho humano al ambiente y la Inteligencia Artificial, AA. VV., «Inteligencia Artificial. Innovación, impacto y futuro en el Medio Ambiente», FUNDAP, México, 2025; y, también con la coautoría de la profesora Santos Fernández, Margaret, La aplicación de la inteligencia artificial en y desde la administración pública y la obligación de protección de los derechos humanos, AA.VV., «Derecho constitucional y derechos humanos en democracias modernas en Centro y Sudamérica», FUNDAP, México, 2026), en esta ocasión se hará referencia al uso de los sistemas de IA en el Poder Judicial, especialmente, por los tribunales que integran la jurisdicción contencioso administrativa.
Para ello vamos a comentar la «Carta de utilización de la Inteligencia Artificial dentro de la Jurisdicción Administrativa», elaborada por el Consejo de Estado de Francia y puesta en circulación el 11 de diciembre de 2025.
La Carta establece un estándar deontológico de actuación dentro de la jurisdicción contencioso administrativa, para aprovechar la utilidad de los sistemas de IA, con respeto a los derechos fundamentales, la transparencia en la gestión, la prohibición de automatización de las decisiones judiciales, así como la insoslayable obligación de la supervisión humana de manera permanente.
Ella se fundamenta en siete principios: 1. Primacía humana: la decisión judicial en ningún caso debe ser automatizada; 2. Control humano sistemático: toda salida del sistema de IA debe ser sometida a verificación humana; 3. Respeto a derechos fundamentales: debido proceso, no discriminación y protección de datos; 4. Autonomía estratégica: se debe procurar evitar la dependencia tecnológica de actores externos; 5. Transparencia: supone el deber de información sobre los sistemas utilizados y sus finalidades; 6. Seguridad y confidencialidad: implica la interdicción de introducir documentos amparados por el secreto profesional o datos sensibles, en sistemas externos; 7. Sostenibilidad ambiental: impone el uso racional de los sistemas de IA, teniendo en consideración su huella energética.
Entre los potenciales riesgos identificados se pueden enumerar: 1. Sesgos cognitivos: anclaje, confirmación, aprendizaje y discriminación; 2. Alucinaciones: generación de referencias jurídicas inexistentes o inexactas; 3. Dependencia tecnológica: riesgo de que el razonamiento humano quede subordinado a las propuestas de los sistemas de IA; 4. Confidencialidad: exposición de datos sensibles, al introducir documentos en sistemas externos; 5. Impacto ambiental: consumo energético significativamente mayor, que cuando se realizan las búsquedas tradicionales.
Los operadores que incorporen contenido generado por los sistemas de IA en documentos oficiales deben asumir la plena responsabilidad de su exactitud; se debe llevar a cabo una verificación independiente, de toda información producida por los sistemas de IA, especialmente de la jurídica; y se prohíbe el uso de los sistemas de IA, en las actividades que impliquen la transmisión de documentos confidenciales, deliberaciones internas o datos personales.
Los tribunales contenciosos administrativos deben emplear los sistemas de IA internos de bajo riesgo, centrados en tareas técnicas, como anonimizar, búsqueda jurídica y gestión de expedientes. Los sistemas deben garantizar la reversibilidad, con la finalidad de asegurar la posibilidad de realizar las tareas, sin el uso de dichos sistemas. También se debe asegurar auditabilidad, explicabilidad y acceso público, a la documentación de los sistemas.
La lectura de la Carta permite apreciar que se redactó desde una posición precautoria, en el sentido de que reconoce el potencial de los sistemas de IA, pero limita su uso a funciones auxiliares, conservando la prevalencia del juicio humano.
Ella destaca la ética de la responsabilidad tanto de los jueces como de los demás operadores, quienes no pueden delegar, ni transferir, ni diluir sus responsabilidades en los sistemas de IA.
La transparencia y la sostenibilidad brindan una visión integral, que trasciende lo estrictamente jurídico, al incorporar tanto la dimensión social como la ambiental.
En fin, la Carta propone un modelo de gobernanza tecnológica en el orden jurisdiccional administrativo, que puede servir de referencia fuera de las fronteras de Francia, para realizar una regulación ajustada a las realidades de cada Estado.
Sin duda, la Carta de utilización de la IA dentro de la Jurisdicción Contencioso Administrativa es un documento novedoso, producto de una meditada reflexión, basada en los estudios previos del Consejo de Estado y en la incipiente experiencia en el tema, que además vino a complementar el texto elaborado por la Corte de Casación titulado «Prepararse para la Corte de Casación de mañana. Corte de Casación e Inteligencia Artificial», en abril de 2025 y permite extraer enseñanzas que pueden ser valiosas, para la próxima aprobación de la Ley de la jurisdicción contencioso administrativa, en este 2026.
Compartir esta nota