Por: Carlos Fernando Cabeza Zambrano
Abogado – Universidad de Los Andes
Especialista en Derecho de Daños – Universidad ICESI / Magister en Derecho – Universidad ICESI
El lanzamiento de ChatGPT por OpenAI en noviembre de 2022 marcó un hito en el uso público de la inteligencia artificial (IA). Un claro ejemplo de su rápida incorporación en ámbitos cruciales ocurrió el 31 de enero de 2023, cuando el Juez Juan Manuel Padilla emitió un fallo en el que utilizó interacciones con ChatGPT para fundamentar su decisión sobre un derecho fundamental a la salud de un menor. Este evento ilustra cómo la IA ha comenzado a influir directamente en el ámbito judicial, demostrando que su impacto en diversas esferas sociales es cada vez más profundo.
Sin embargo, la integración de la IA en el sistema judicial no ha sido un proceso fácil ni exento de controversia. La inclusión de tecnologías disruptivas como ChatGPT ha implicado la necesidad de romper con estructuras procesales rígidas y con la resistencia de ciudadanos, abogados y jueces a aceptar estos cambios dentro del aparato judicial colombiano. Inclusive, la Corte Constitucional en la Sentencia T-323 de 2024[1] exhortó a los jueces de la República a que evalúen cuidadosamente el uso adecuado de herramientas tecnológicas como ChatGPT y otras basadas en inteligencia artificial (IA). El llamado de la Corte no solo busca que los jueces consideren y apliquen las mejores prácticas en el uso de estas tecnologías, sino que también lo hagan bajo criterios éticos y en respeto a los mandatos constitucionales. El objetivo principal es garantizar que, al hacer uso de estas herramientas, se respeten plenamente los derechos fundamentales, especialmente el debido proceso, y que se preserve la independencia y autonomía judiciales, elementos esenciales para la vigencia del Estado Social de Derecho y la democracia.
Así las cosas, en la actualidad resultaría apresurado el diseño de una regulación específica de la aplicación de la IA al proceso judicial. Por el contrario, es necesario diseñar e implementar unos estándares mínimos, que salvaguarden las garantías procesales. Sin embargo, es necesario que se preste especial atención a la reducción de riesgos en este proceso de implementación, especialmente de cara a fenómenos como el black box, sobre el que ahondaré a continuación.
Se debe tener en cuenta que desde 1990 el sector judicial entró en una etapa de transformación y modernización. En este tiempo, lo que se ha buscado es apoyar, racionalizar y automatizar el proceso ante entidades judiciales. En un primer momento, este proceso de inmersión de la tecnología inició con la implementación paulatina de sistemas tales como la video conferencia, expedientes electrónicos, sistemas de recolección de datos, entre otros[2]. El último de los esfuerzos por la aplicación tecnológica al proceso judicial se dio con la implementación de herramientas de IA como respuesta frente a los cambios sociales, y al crecimiento exponencial de los avances tecnológicos[3].
Este proceso de aplicación de herramientas de IA, si bien se trata de un fenómeno relativamente reciente, no es un campo exento de riesgos o errores. Como ejemplo, tomemos el caso de State vs. Loomis[4], en el que se determinó que la herramienta de IA denominada COMPAS identificó a un hombre afroamericano de alto riesgo para la sociedad, en comparación con un hombre blanco, con antecedentes significativos, quien fue determinado de bajo riesgo. Así mismo, se logró identificar que COMPAS era más propenso a calificar a ciudadanos afroamericanos con alta probabilidad de reincidencia delictiva, mientras que los ciudadanos blancos no lo eran[5].
De esta manera, se estaría configurando el mayor riesgo existente en la aplicación de herramientas de IA al proceso judicial: el fenómeno de black box o la caja negra. Esta problemática se puede definir como la incapacidad para comprender, o conocer, el proceso de la toma de decisiones de la IA, de modo que resulta imposible predecir las decisiones o resultados de la misma[6]. De este fenómeno deriva la problemática de falta de transparencia del proceso de argumentación de la herramienta, trasgrediendo uno de los presupuestos del derecho al debido proceso, como lo es el derecho a un proceso público[7].
Debe recordarse que la estructura actual del proceso judicial fue pensada para un proceso, cuando más, tradicional. En consecuencia, no resulta aplicable, o al menos no de manera efectiva, un cuerpo de normas desactualizadas a un fenómeno reciente, y que crece exponencialmente, como lo es la IA. Sin embargo, y ante el rápido crecimiento de la IA, es apresurado establecer un cuerpo normativo pormenorizado, que puede limitar el crecimiento y la aplicación de estas herramientas. Así las cosas, lo que resulta deseable es diseñar un cuerpo de estándares mínimos que deben ser respetados de cara a la implementación de la IA en el proceso judicial, mismos que garanticen los presupuestos y garantías constitucionales, sin limitar el rápido crecimiento de las herramientas.
En conclusión, la implementación de herramientas tecnológicas en el ámbito judicial no es novedosa, pero la revolución más reciente está impulsada por la creciente adopción de herramientas de inteligencia artificial (IA), cuyo desarrollo ha sido exponencial. A pesar de sus beneficios, la IA también presenta riesgos, como el fenómeno del black box, donde los procesos de toma de decisiones no son completamente transparentes. Frente a ello, es necesario establecer estándares mínimos que permitan el crecimiento y perfeccionamiento de estas tecnologías, sin comprometer las garantías procesales y constitucionales que protegen el debido proceso y la justicia en su conjunto. Es necesario que actualmente veamos las diferentes inteligencias artificiales en la Corte, en lugar de pensarlas como la Corte.
[1] Corte Constitucional, Sala Segunda de Revisión (2024) Sentencia T-323 de 2024. Exp. T-9.301.656 [MP. Juan Carlos Cortes Gonzalez].
[2] Procopiuck, Mario. 2018. “Information technology and time of judgment in specialized courts: What is the impact of changing from physical to electronic processing?” ELSEVIER 35, no. 3 (09): 491-501. https://doi.org/10.1016/j.giq.2018.03.005.
[3] Dixon, Herbert. 2013. “Technology and the Courts: A Futurist View.” https://www.americanbar.org/groups/judicial/publications/ judges_journal/ 2013/summer/technology_and_the_courts_a_futurist_view.
[4] United States. Supreme Court of Wisconsin. 2015. “State of Wisconsin, Plaintiff-Respondent, v. Eric Loomis, Defendant-Appellant.” https://epic.org/algorithmic-transparency/crim-justice/Loomis-Brief.pdf.
[5] Larson, Jeff, Surya Mattu, Lauren Kirchner, and Julia Angwin. 2016. “How We Analyzed the COMPAS Recidivism Algorithm.” ProPublica. https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.
[6] Yavar Bathaee “The Artificial Intelligence Black Box and the Failure of Intent and Causation”, Harvard Journal of Law & Technology 31, Nº 2 (2018): 898. https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf.
[7] Corte Constitucional de Colombia, Sala Plena. STC C-341 del 4 de junio de 2014. Magistrado Ponente Mauricio González Cuervo.
Nota Aclaratoria. Las columnas de opinión publicadas en la sección de Opinión de la página web de Francisco Javier Fajardo Angarita Abogados y Asociados S.A.S. tienen un propósito exclusivamente informativo y reflexivo. Su contenido refleja únicamente las ideas y puntos de vista de sus autores, y no constituye una posición oficial ni un criterio institucional de la firma frente a los temas abordados.
Francisco Javier Fajardo Angarita Abogados y Asociados S.A.S.