1.2.25

La Sentencia T-323/24: Análisis Integral sobre el Uso de la Inteligencia Artificial en la Justicia y sus Implicaciones Constitucionales

La Sentencia T-323/24 de la Corte Constitucional de Colombia representa un hito trascendental en la intersección entre el derecho constitucional y la tecnología, consolidándose como un referente clave en la regulación del uso de herramientas de inteligencia artificial (IA) en la administración de justicia. Esta decisión histórica no solo establece principios rectores para la implementación de la IA en los procesos judiciales, sino que también introduce criterios innovadores para garantizar la protección de los derechos fundamentales en un contexto donde la automatización y la digitalización juegan un papel cada vez más determinante en la toma de decisiones jurídicas.

Desde una perspectiva jurídica, la sentencia desarrolla un marco normativo robusto sobre la utilización de herramientas de IA en el ámbito judicial, asegurando que su uso no comprometa la autonomía de los jueces ni vulnere principios esenciales como la transparencia, la responsabilidad y el debido proceso. Para ello, la Corte Constitucional define un conjunto de directrices fundamentales, que incluyen:

  • Transparencia: La IA debe ser utilizada de manera abierta y verificable, permitiendo que todas las partes en un proceso judicial conozcan su uso, su impacto en la decisión y los criterios bajo los cuales se integran sus resultados en la argumentación jurídica.
  • Responsabilidad: El juez sigue siendo el único titular de la potestad jurisdiccional, por lo que debe garantizar que el uso de la IA no reemplace su capacidad de deliberación, interpretación ni motivación de las decisiones.
  • No sustitución de la racionalidad humana: Las herramientas de IA pueden asistir en la estructuración de información y en la búsqueda de precedentes, pero nunca deben desplazar el juicio crítico y la argumentación propia de los jueces.
  • Privacidad y protección de datos: Se debe evitar la exposición indebida de información sensible y garantizar el cumplimiento de normativas sobre datos personales, especialmente en casos donde intervienen menores de edad o sujetos de especial protección constitucional.
  • Prevención de riesgos y sesgos algorítmicos: Dado que la IA puede generar resultados erróneos, imprecisos o influenciados por sesgos, se establece la obligación de aplicar un control estricto sobre su uso, asegurando que no derive en decisiones discriminatorias o injustas.
  • Supervisión y actualización continua: La implementación de IA en la justicia debe estar sujeta a revisión constante, garantizando que su desarrollo sea acorde con principios éticos, jurídicos y tecnológicos en evolución.

En este contexto, la sentencia adquiere una relevancia crucial al resolver un caso específico en el que se cuestionó el uso de ChatGPT 3.5 por parte de un juez de segunda instancia en un proceso de tutela. La Corte analiza en detalle si esta práctica representó una vulneración del debido proceso, llegando a la conclusión de que, si bien la herramienta fue utilizada como un complemento para fortalecer el análisis del caso, no reemplazó la función judicial en la toma de decisiones. No obstante, se advierte que su uso debe ser meticulosamente regulado para evitar situaciones donde la IA influya de manera indebida en las resoluciones judiciales, estableciendo así un precedente sobre la necesidad de lineamientos normativos claros en este ámbito.

Más allá del debate sobre la IA en la administración de justicia, la Sentencia T-323/24 aborda otro tema de gran trascendencia: la protección de los derechos fundamentales de los niños, niñas y adolescentes en situación de discapacidad, en particular, el acceso efectivo al sistema de salud. En este sentido, la Corte resuelve una acción de tutela interpuesta en favor de un menor con Trastorno del Espectro Autista (TEA), garantizando que su derecho a la salud sea plenamente respetado y protegido.

El fallo establece que la EPS demandada vulneró el derecho fundamental a la salud del menor al no garantizar la exoneración de copagos y cuotas moderadoras, así como al no proporcionar un esquema de transporte adecuado para que el niño pudiera asistir a sus tratamientos médicos. En consecuencia, la Corte ordena que:

  1. Se exonere de manera inmediata y sin barreras administrativas al menor del pago de copagos y cuotas moderadoras, conforme a la normatividad vigente que protege a las personas en situación de discapacidad.
  2. Se garantice la cobertura total del transporte para el niño y su acompañante, incluyendo los desplazamientos necesarios para consultas médicas, terapias de rehabilitación, exámenes especializados y cualquier otro procedimiento necesario para su diagnóstico y tratamiento.
  3. Se eliminen obstáculos burocráticos que impidan la prestación de servicios de salud de manera efectiva y oportuna, reafirmando el principio de accesibilidad dentro del Sistema General de Seguridad Social en Salud (SGSSS).
  4. Se insta a las EPS a mejorar sus protocolos de atención a personas en situación de discapacidad, evitando que sus derechos sean condicionados por trámites administrativos innecesarios o por falta de articulación entre las entidades prestadoras del servicio de salud.

Este pronunciamiento de la Corte Constitucional no solo representa un avance significativo en la regulación del uso de inteligencia artificial en la justicia, sino que también refuerza la necesidad de garantizar el acceso equitativo a la salud para los niños con discapacidad, reafirmando el deber del Estado y del sistema de salud de eliminar todas las barreras económicas, geográficas y administrativas que puedan afectar el acceso oportuno y eficaz a los tratamientos médicos esenciales.

La Sentencia T-323/24 marca un punto de inflexión en dos grandes debates contemporáneos: por un lado, la incorporación de la inteligencia artificial en la administración de justicia, con un enfoque que prioriza el control humano, la ética y el respeto por el debido proceso; y por otro, la garantía plena de los derechos fundamentales de los niños en situación de discapacidad, estableciendo un precedente crucial sobre la responsabilidad del sistema de salud en la eliminación de cualquier barrera que limite su acceso a los servicios médicos esenciales. Con ello, la Corte reafirma su papel como garante de la Constitución y de los derechos humanos, adaptando la interpretación del derecho a los desafíos de la era digital y las necesidades de las poblaciones más vulnerables.

Contexto y Antecedentes del Caso

La acción de tutela fue presentada por Blanca en representación de su hijo menor de edad, Emilio, quien padece Trastorno del Espectro Autista (TEA), contra la Entidad Promotora de Salud (EPS) encargada de su atención. La demandante alegó que la EPS vulneraba los derechos fundamentales del menor al negarle la exoneración de copagos y cuotas moderadoras, no garantizar un transporte adecuado para asistir a sus tratamientos y no ofrecer un tratamiento integral conforme a sus necesidades médicas y sociales. Blanca argumentó que la EPS incumplió la normatividad vigente que protege a los menores en condición de discapacidad, colocándolo en una situación de riesgo y vulnerabilidad al limitar su acceso a los servicios de salud esenciales. La EPS, a pesar de tener la obligación de garantizar estos derechos fundamentales, no cumplió con las disposiciones establecidas en la normatividad nacional e internacional que buscan asegurar la protección especial de los niños en condición de discapacidad, lo que llevó a la madre a acudir a la justicia en búsqueda de amparo para su hijo, quien depende de una atención médica integral y sin barreras para su adecuado desarrollo y calidad de vida.

El caso fue conocido en primera instancia por el Juzgado Municipal, que resolvió a favor del menor, ordenando a la EPS garantizar la exoneración de copagos y cuotas moderadoras, así como brindar el transporte adecuado para que Emilio pudiera asistir a sus tratamientos. Sin embargo, no se pronunció de manera específica sobre la implementación de un tratamiento integral, bajo el argumento de que no existía prueba suficiente en el expediente que demostrara una negativa explícita de la EPS en brindar estos servicios. A pesar de ello, la madre del menor insistió en la necesidad de un fallo más robusto que obligara a la EPS a estructurar un plan de atención integral que incluyera un esquema de terapias continuas, valoración interdisciplinaria y un seguimiento especializado ajustado a la condición de su hijo.

En segunda instancia, el Juzgado del Circuito confirmó la decisión inicial y, adicionalmente, utilizó la herramienta de inteligencia artificial ChatGPT 3.5 para complementar su argumentación y fundamentar la resolución del caso. Esta situación generó una fuerte controversia en el ámbito judicial, dado que el uso de inteligencia artificial en la toma de decisiones judiciales plantea interrogantes sobre la autonomía del juez y la garantía del debido proceso. En este caso particular, el juez de segunda instancia recurrió a la herramienta de IA para consultar normativas relacionadas con la protección de menores con discapacidad, así como para obtener referencias jurisprudenciales sobre la materia. Sin embargo, lo problemático radicó en que las respuestas generadas por la IA no fueron sometidas a un proceso de verificación exhaustivo, y tampoco se informó a las partes del uso de esta tecnología en la argumentación de la sentencia, lo que suscitó dudas sobre la fiabilidad de la información utilizada en la resolución del caso.

Ante la controversia generada, la Corte Constitucional intervino y examinó el impacto de la inteligencia artificial en la administración de justicia. En su análisis, la Corte determinó que, aunque la herramienta de IA fue empleada después de que el juez hubiera fundamentado su decisión, su utilización no cumplió completamente con los principios de transparencia y responsabilidad que rigen la función judicial. No se informó a las partes sobre su uso, lo que impidió que estas pudieran cuestionar o impugnar la validez de la información incorporada en la argumentación del fallo. Además, la Corte identificó que no hubo un mecanismo de control que permitiera verificar la exactitud y confiabilidad de los datos generados por la inteligencia artificial, lo que representa un riesgo en el ámbito judicial, ya que el uso de estas herramientas sin supervisión humana estricta puede llevar a la inclusión de información inexacta, sesgada o descontextualizada en la toma de decisiones.

A pesar de estos señalamientos, la Corte no anuló la decisión tomada en segunda instancia, ya que determinó que el uso de ChatGPT no fue el factor determinante en la resolución del caso, sino un complemento utilizado por el juez en su argumentación. Sin embargo, advirtió que el empleo de herramientas de inteligencia artificial en la administración de justicia debe ser objeto de regulación estricta para evitar que comprometan la independencia judicial y el derecho al debido proceso. En consecuencia, la Corte exhortó a las autoridades competentes a establecer lineamientos claros sobre el uso de IA en el ámbito judicial, asegurando que su implementación cumpla con principios de transparencia, supervisión y fiabilidad.

En cuanto a la protección de los derechos del menor, la Corte Constitucional reafirmó la obligación de la EPS de garantizar la exoneración de copagos y cuotas moderadoras, así como el acceso a un transporte adecuado para recibir sus tratamientos. Además, enfatizó que cualquier barrera administrativa que limite el acceso a los servicios de salud de personas en condición de discapacidad es contraria a la Constitución y a los tratados internacionales sobre derechos humanos. Con esta decisión, la Corte sienta un precedente importante no solo en lo referente al derecho a la salud de menores con discapacidad, sino también en relación con el uso de inteligencia artificial en el ámbito judicial, estableciendo que, aunque la IA puede ser una herramienta de apoyo, su uso debe estar sujeto a estándares estrictos que garanticen la autonomía de los jueces y la protección de los derechos fundamentales.

Principios Rectores para el Uso de la Inteligencia Artificial en la Justicia

Los principios rectores para el uso de la inteligencia artificial en la justicia deben garantizar la protección de los derechos fundamentales, la independencia e imparcialidad judicial, y el debido proceso. "La garantía del juez natural es piedra angular del ordenamiento jurídico superior porque es parte integral del derecho al debido proceso". En este contexto, es imperativo que la IA no reemplace las funciones indelegables del operador judicial, pues "el uso de la IA en la administración de justicia, sin salvaguardas, puede afectar el deber de motivar las decisiones judiciales, las garantías del juez natural independiente e imparcial y el derecho a la defensa".

En la sentencia T-323/24 se consideran esenciales la apropiación y aplicación de los siguientes criterios orientadores en cuanto al uso de herramientas de IA como ChatGPT por parte de los despachos judiciales:

"a. Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción."

"b. Responsabilidad, comprendida como aquella obligación que existe de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos del uso de estas tecnologías, para a su vez dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada por la misma, la cual debe ser verificada."

"c. Privacidad, es aquel deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial."

"d. No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales."

"e. Seriedad y verificación, que implica la obligación de realizar un estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente."

"f. Prevención de riesgos, como mandato en cuanto aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tecnologías tales, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos, inconsistencias y demás."

"g. Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos."

"h. Control humano, en tanto considerando los anteriores criterios, siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas."

"i. Regulación ética, que implica el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores de la Rama Judicial."

"j. Adecuación a buenas prácticas y estándares colectivos, en tanto se apliquen los esquemas razonables que se definan para el funcionamiento de la Rama Judicial, desde su autonomía e independencia, a partir de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial."

"k. Seguimiento continuo y adaptación, a efecto que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva."

"l. Idoneidad. El uso de las tecnologías de la información y de las comunicaciones en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia."

Dado el impacto de la IA en la administración de justicia, se exhortó al Consejo Superior de la Judicatura a establecer lineamientos específicos que aseguren la aplicación de estos principios ya que "Las IA no pueden ser usada para sustituir el razonamiento lógico y humano que le compete realizar a cada juez a efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la decisión, pues ello conllevaría una violación de la garantía del juez natural y al debido proceso probatorio. En las instancias y en sede de revision de tutelas se deberán aplicar controles que eviten la violación del derecho al debido proceso por uso indebido de IA, entre los que se destaca la autrorregulación ética".  Además "identificar a un humano responsable, es decir, que haya una persona individualizable e identificable a quien se le pueda plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las intervenciones realizadas por la IA".

Nos recuerda la Corte Constitucional Colombiana que "... la Carta Iberoamericana de Inteligencia Artificial en la Administración Pública ... asume la necesidad de promover una serie de principios orientadores en el desarrollo de la IA en la Administración Pública, que puedan ser compartidos por todos los países de la región. Los anteriores están sustentados en los derechos humanos como fundamento para una IA centrada en las personas, confiable, robusta y orientada a la innovación, incluyendo el respeto de la dignidad humana, la libertad individual, la igualdad y no discriminación, el respeto a la democracia y el Estado de derecho, la libertad de pensamiento, conciencia y opinión, el derecho a la educación, así como a tener buenos gobiernos y administraciones públicas. La Recomendación se centra en cuestiones de política que son específicas de la IA y se esfuerza por establecer un estándar que sea implementable y lo suficientemente flexible como para soportar la prueba del tiempo en un campo en rápida evolución".

Impacto y Relevancia de la Sentencia

La Sentencia T-323/24 no es solo un pronunciamiento más de la Corte Constitucional de Colombia; es un verdadero punto de inflexión en la relación entre la tecnología y la administración de justicia. Nos encontramos en un momento en el que la inteligencia artificial empieza a permear ámbitos que hasta hace poco parecían exclusivamente humanos, y la justicia no es la excepción. En este caso, la Corte tuvo que enfrentarse a una pregunta que no es menor: ¿hasta qué punto es válido que un juez utilice una herramienta como ChatGPT para fundamentar sus decisiones? ¿Dónde se traza la línea entre el apoyo tecnológico y la delegación indebida de la función jurisdiccional?

El análisis de la Corte parte de un hecho concreto. Un juez de segunda instancia consultó a ChatGPT 3.5 para complementar su decisión en un caso de tutela. No es que la IA haya tomado la decisión por él, pero sí se incorporaron sus respuestas dentro de la sentencia. Aquí es donde empiezan los dilemas. Por un lado, la Corte reconoce que no hubo una sustitución del juez por la IA, porque la decisión ya estaba tomada antes de la consulta. Sin embargo, advierte que el uso de la herramienta no fue suficientemente transparente ni responsable. Y es aquí donde el fallo se vuelve crucial, porque plantea una serie de principios que deben regir la aplicación de la IA en los procesos judiciales. No se trata de demonizar la tecnología ni de prohibir su uso, sino de establecer reglas claras para que no se comprometan derechos fundamentales.

La sentencia introduce criterios que van desde la transparencia hasta la no sustitución de la racionalidad humana. Y esto es clave, porque el uso de IA en la justicia puede traer enormes ventajas en términos de eficiencia, pero también riesgos muy serios si no se implementa con el debido control. La Corte advierte sobre fenómenos como las alucinaciones de los modelos de IA, es decir, la generación de información falsa o distorsionada, y sobre los sesgos que pueden estar presentes en estas herramientas. Un juez que confíe ciegamente en la IA sin verificar sus respuestas podría terminar apoyando su decisión en información errónea, y eso comprometería gravemente el debido proceso.

No es casualidad que el fallo ordene al Consejo Superior de la Judicatura la elaboración de una guía para el uso de la IA en la Rama Judicial. Se reconoce que la tecnología está aquí para quedarse y que prohibir su uso sería tan ingenuo como riesgoso, pero al mismo tiempo se subraya que el ejercicio de la función judicial no puede delegarse a una máquina. La inteligencia artificial puede ser una herramienta valiosa para mejorar la gestión judicial, agilizar el análisis de grandes volúmenes de información o incluso identificar patrones en la jurisprudencia, pero nunca puede reemplazar el juicio crítico de un juez.

Este fallo sienta un precedente que va más allá de Colombia. Es parte de un debate global sobre cómo las sociedades deben regular el uso de la IA en decisiones que afectan derechos fundamentales. En un mundo donde cada vez más países experimentan con sistemas automatizados en la justicia, la Corte Constitucional colombiana establece un principio que debe servir de referencia: la tecnología es un medio, no un fin, y su uso debe estar supeditado a principios jurídicos inquebrantables. Es un recordatorio de que el derecho sigue siendo, en su esencia, una construcción humana y que la justicia, por más que se apoye en la IA, no puede perder su componente esencialmente racional y ético.

Conclusión

La Sentencia T-323/24 de la Corte Constitucional de Colombia representa un parteaguas en la convergencia entre derecho y tecnología, no solo por la regulación del uso de la inteligencia artificial en la administración de justicia, sino también por la forma en que sienta un precedente fundamental en la protección de los derechos fundamentales. En un mundo donde la automatización avanza sin frenos, la Corte lanza una advertencia clara: la justicia no puede, no debe y no será reducida a simples lógicas algorítmicas.

A lo largo del fallo, se percibe un esfuerzo deliberado por evitar que la tecnología desplace la racionalidad crítica del juez, reafirmando que el derecho no es una serie de reglas aplicables de manera mecánica, sino una construcción hermenéutica compleja, donde cada palabra, cada matiz, cada interpretación, tiene consecuencias tangibles en la vida de las personas. Resulta particularmente relevante el análisis sobre los riesgos de sesgos algorítmicos y la falta de transparencia en la implementación de la IA en los procesos judiciales. No se trata, simplemente, de una preocupación teórica o especulativa, sino de una problemática real y latente: los modelos de IA pueden reflejar y amplificar desigualdades estructurales, influir en decisiones sin un control humano efectivo y erosionar principios esenciales del debido proceso.

Por otro lado, el pronunciamiento de la Corte respecto a la garantía del derecho a la salud de los menores en situación de discapacidad revela otro aspecto fundamental de la decisión: la tecnología debe estar al servicio del ser humano, y no a la inversa. La orden de eliminar barreras administrativas que impiden el acceso oportuno a la salud es un recordatorio contundente de que los principios constitucionales no pueden quedar subordinados a lógicas de eficiencia institucional. La burocracia, cuando impide o dilata la realización de derechos fundamentales, se convierte en un obstáculo ilegítimo que las instituciones están obligadas a remover.

El fallo, sin embargo, no es solo una declaración de principios, sino una hoja de ruta para el futuro. La exhortación al Consejo Superior de la Judicatura para que establezca lineamientos claros sobre el uso de la IA en el ámbito judicial es una medida que, si bien oportuna, llega con un retraso preocupante. No es casualidad que la decisión se tome en un momento en que el avance de la automatización plantea interrogantes urgentes sobre los límites de la tecnología en la toma de decisiones judiciales. La Cuestión es clara: ¿puede una herramienta como ChatGPT reemplazar el análisis humano? La Corte responde con un rotundo "no" y establece que la IA, aunque pueda ser utilizada como una herramienta auxiliar, no puede sustituir la capacidad deliberativa de los jueces, ni comprometer la independencia judicial.

En definitiva, la Sentencia T-323/24 marca una posición firme en dos frentes: primero, la regulación estricta y necesaria del uso de la IA en la justicia, garantizando que su aplicación se rija por principios de transparencia, verificabilidad y control humano. Segundo, la reafirmación inquebrantable de que la protección de los derechos fundamentales no puede verse supeditada a barreras administrativas o tecnológicas. En un mundo donde la tecnología avanza más rápido que la regulación, la Corte Constitucional de Colombia envía un mensaje inequívoco: el derecho sigue siendo una creación humana, y la justicia, por encima de todo, debe seguir estando en manos de quienes pueden razonar, discernir y decidir con criterio propio, sin delegar esta responsabilidad en algoritmos que carecen de empatía, contexto y sentido de justicia.

 

 


0 comentarios:

Publicar un comentario

Siempre es bien recibida una opinión

Compartir Esto

Twitter Delicious Facebook Digg Stumbleupon Favorites