La mesa de trabajo núm. 4 de la Cumbre Judicial Iberoamericana XXI edición, dedicada a la “carrera judicial independiente y eficaz” produjo interesantes documentos de trabajo, entre ellos uno dedicado al hecho tecnológico y su función jurisdiccional, aspecto en el cual se produjo la propuesta de aplicación de inteligencia artificial en los poderes judiciales iberoamericanos.
El documento constata realidades inherentes a la administración de justicia en las Américas: la inteligencia artificial (IA) se expande en infinidad de aplicaciones, rutinas, sistemas y ámbitos, entre ellos el judicial. En este sentido, no pueden soslayarse las ventajas que ofrece a la administración judicial. La agilización de los procesos constituye, sin duda, uno de los elementos relevantes en la decisión de uso de IA-judicial, como también la optimización de procesos, el manejo eficiente de la información y la captación de datos relevantes para la solución óptima de casos.
Asimismo, el fortalecimiento del sistema de precedentes (porque permite identificar y analizar la producción de criterios vinculados a la resolución óptima de casos similares); el análisis rápido de documentos legales y la extracción de información y con ello, la facilitación del trabajo de los magistrados, al asistirlos en las labores de análisis y resumen de información apropiada para la toma de decisiones.
Hay pocas dudas acerca de que el uso de la IA judicial puede mejorar la calidad documental y ofrecer mejoras gramaticales o suplir deficiencias de redacción del personal encargado, permitiendo mejoras más o menos relevantes en la claridad y coherencia de las evaluaciones de casos.
Dada la inevitabilidad de su uso, la República Dominicana ha implementado diversas estrategias relativas a la IA judicial, entre ellas la actualización y mejoramiento de los servicios tecnológicos de su plataforma de servicios, lo que en no pocos casos ha logrado la implementación exitosa de tecnologías o la propuesta de otras con similar finalidad (como “Machine Learning”, para la agilización de respuestas jurisdiccionales y atención al usuario).
Desde la votación de la Ley Núm. 339-22, que habilita el Uso de Medios Digitales en el Poder Judicial, y de su reglamento de aplicación, se ha avanzado, pese a ciertos contratiempos, en la aceptación del uso de medios digitales a disposición tanto de las unidades administrativas vinculadas al uso de plataformas digitales como en el ámbito propio de los órganos jurisdiccionales.
Estudios recientes muestran el auge de uso de sistemas judiciales de IA como “Prometea”, la que se reputa como primera inteligencia artificial latinoamericana, utilizada por la Fscalía General Adjunta en lo Contencioso Administrativo y Tributario del Ministerio Público Fiscal de la ciudad de Buenos Aires.
Pero no es ese el único mecanismo en uso: Brasil utiliza varios sistemas informáticos diferentes, para reconocimiento facial (en materia de control de acceso a ciertos tribunales, denominado “Amon”); el sistema de reconocimiento de internos en régimen abierto (“Saref”); el sistema de orientación a usuarios (“Judi Chatbot”) y un módulo de clasificación de documentos, automatizado, entre otros.
En Chile se han utilizado sistemas de marcaje y selección de datos para el procesamiento automatizado y clasificación que permita la búsqueda de información judicial; en Colombia se puso en vigencia el sistema “Pretoria” mediante el cual la Sala Constitucional revisa las acciones de tutela decididas por jueces de todo el país.
Otros países del área utilizan sistemas de IA judicial, como en Costa Rica (donde se aplica el “Chatbot del Poder Judicial” para la interactuación con usuarios del sitio web; un tipificador de documentos automatizado para la clasificación de escritos presentados a los despachos por tipo de trámite o solicitud, y el denominado “Fiscal Watson”, de la Fiscalía General de Colombia, para el registro de denuncias y control de los modos operacionales, las características de las armas y vehículos utilizados por los infractores de la ley y otros aspectos de interés criminalistico.
Como se observa, son bastante variados los ejemplos de uso de IA judicial en las Américas que van revolucionando la forma de interactuación entre los poderes judiciales y la tecnología, encontrando campo propicio en la administración de justicia, a la que provee nuevas herramientas susceptibles de mejorarla.
No obstante, si bien la IA puede permitir el uso eficiente de los recursos disponibles y su mejor asignación, su uso judicial ha provocado importantísimas consecuencias, no siempre positivas.
En este sentido, recientemente (febrero de 2025) se ha informado de las sanciones a varios abogados del bufete Morgan & Morgan por citar casos de jurisprudencia falsos, al punto de que de nueve citas, ocho correspondían a casos falsos y todos ellos fueron generados por inteligencia artificial: además de la reprimenda y el descrédito, debieron reembolsar los gastos cobrados al cliente. (https://natlawreview.com/article/lawyers-sanctioned-citing-ai-generated-fake-cases)
En el Reino Unido el Tribunal Supremo ordenó a los abogados ingleses “detener el uso indebido de IA” tras haberse detectado varios casos de citas falsas de jurisprudencia, entre ellos un caso relevante debido a que se trataba de una demanda multimillonaria que involucraba al Banco Nacional de Qatar: el abogado admitió la utilización de herramientas de IA (https://www.theguardian.com/technology/2025/jun/06/high-court-tells-uk-lawyers-to-urgently-stop-misuse-of-ai-in-legal-work).
Pero no se trata del único caso; en Ayinde vs. Haringey la abogada a cargo citó precedentes inexistentes y tergiversó el contenido de otros, por lo cual fue sancionada con multa y el caso remitido a los organismos profesionales disciplinarios.
En Georgia, Estados Unidos, un juez emitió orden judicial basada en falsos precedentes generados por IA (caso “Shaid vs. Esaam”, https://www.itnow.connectab2b.com/post/un-juez-emitio-una-orden-judicial-basada-en-precedentes-falsos-generados-con-ia). En Mississippi el juez Henry Wingate hizo constar en un fallo declaraciones juradas de testigos que no concurrieron al proceso, además de que identificó incorrectamente las partes, proceder que indujo a la creencia de uso de IA para la redacción de la decisión.
Poca duda queda acerca de los peligros éticos del uso de IA en la justicia, peligros tales que, por un lado, exigen la formulación de una política pública definida que adecúe y regule las formas de utilización de IA judicial, y de otro, se demanda prudencia en su uso, y como justificación bastan los breves ejemplos de cita. La IA judicial no puede utilizarse por sustitución del razonamiento y argumentación del juez para la producción de decisiones que se suponen generadas caso por caso, previa comprobación de los planos fáctico, axiológico y jurídico aplicables a su resolución. En consecuencia, entendemos factible el uso limitado de la IA judicial.
Los usuarios del sistema deben enfocarse al uso de IA judicial con restricciones voluntarias, producidas por el alto valor ético del personal, porque el problema de su uso queda vinculado precisamente a las formas en que se use. Por supuesto, es impostergable, dado el auge de estos mecanismos, establecer políticas y regulaciones orientadas a la evaluación de uso de IA judicial como a propiciar la creación propia y regulada de software propio y el sostenimiento de la confidencialidad de las sentencias desde la recepción del caso hasta la producción de la decisión final.
Compartir esta nota