La
Sentencia T-323/24 de la Corte Constitucional de Colombia representa un hito
trascendental en la intersección entre el derecho constitucional y la
tecnología, consolidándose como un referente clave en la regulación del uso de
herramientas de inteligencia artificial (IA) en la administración de justicia.
Esta decisión histórica no solo establece principios rectores para la
implementación de la IA en los procesos judiciales, sino que también introduce
criterios innovadores para garantizar la protección de los derechos
fundamentales en un contexto donde la automatización y la digitalización juegan
un papel cada vez más determinante en la toma de decisiones jurídicas.
Desde
una perspectiva jurídica, la sentencia desarrolla un marco normativo robusto
sobre la utilización de herramientas de IA en el ámbito judicial, asegurando
que su uso no comprometa la autonomía de los jueces ni vulnere principios
esenciales como la transparencia, la responsabilidad y el debido proceso. Para
ello, la Corte Constitucional define un conjunto de directrices fundamentales,
que incluyen:
- Transparencia:
La IA debe ser utilizada de manera abierta y verificable, permitiendo que
todas las partes en un proceso judicial conozcan su uso, su impacto en la
decisión y los criterios bajo los cuales se integran sus resultados en la
argumentación jurídica.
- Responsabilidad:
El juez sigue siendo el único titular de la potestad jurisdiccional, por
lo que debe garantizar que el uso de la IA no reemplace su capacidad de
deliberación, interpretación ni motivación de las decisiones.
- No sustitución de la racionalidad humana:
Las herramientas de IA pueden asistir en la estructuración de información
y en la búsqueda de precedentes, pero nunca deben desplazar el juicio
crítico y la argumentación propia de los jueces.
- Privacidad y protección de datos:
Se debe evitar la exposición indebida de información sensible y garantizar
el cumplimiento de normativas sobre datos personales, especialmente en
casos donde intervienen menores de edad o sujetos de especial protección
constitucional.
- Prevención de riesgos y sesgos
algorítmicos: Dado que la IA puede generar resultados
erróneos, imprecisos o influenciados por sesgos, se establece la
obligación de aplicar un control estricto sobre su uso, asegurando que no
derive en decisiones discriminatorias o injustas.
- Supervisión y actualización continua:
La implementación de IA en la justicia debe estar sujeta a revisión
constante, garantizando que su desarrollo sea acorde con principios
éticos, jurídicos y tecnológicos en evolución.
En
este contexto, la sentencia adquiere una relevancia crucial al resolver un caso
específico en el que se cuestionó el uso de ChatGPT 3.5 por parte de un
juez de segunda instancia en un proceso de tutela. La Corte analiza en detalle
si esta práctica representó una vulneración del debido proceso, llegando a la
conclusión de que, si bien la herramienta fue utilizada como un complemento
para fortalecer el análisis del caso, no reemplazó la función judicial en la
toma de decisiones. No obstante, se advierte que su uso debe ser
meticulosamente regulado para evitar situaciones donde la IA influya de manera
indebida en las resoluciones judiciales, estableciendo así un precedente sobre
la necesidad de lineamientos normativos claros en este ámbito.
Más
allá del debate sobre la IA en la administración de justicia, la Sentencia
T-323/24 aborda otro tema de gran trascendencia: la protección de los
derechos fundamentales de los niños, niñas y adolescentes en situación de
discapacidad, en particular, el acceso efectivo al sistema de salud. En este
sentido, la Corte resuelve una acción de tutela interpuesta en favor de un
menor con Trastorno del Espectro Autista (TEA), garantizando que su
derecho a la salud sea plenamente respetado y protegido.
El
fallo establece que la EPS demandada vulneró el derecho fundamental a la
salud del menor al no garantizar la exoneración de copagos y cuotas
moderadoras, así como al no proporcionar un esquema de transporte adecuado para
que el niño pudiera asistir a sus tratamientos médicos. En consecuencia, la
Corte ordena que:
- Se exonere de manera inmediata y sin
barreras administrativas al menor del pago de copagos y cuotas moderadoras,
conforme a la normatividad vigente que protege a las personas en situación
de discapacidad.
- Se garantice la cobertura total del
transporte para el niño y su acompañante, incluyendo los
desplazamientos necesarios para consultas médicas, terapias de
rehabilitación, exámenes especializados y cualquier otro procedimiento
necesario para su diagnóstico y tratamiento.
- Se eliminen obstáculos burocráticos que
impidan la prestación de servicios de salud de manera efectiva y oportuna,
reafirmando el principio de accesibilidad dentro del Sistema General de
Seguridad Social en Salud (SGSSS).
- Se insta a las EPS a mejorar sus
protocolos de atención a personas en situación de discapacidad,
evitando que sus derechos sean condicionados por trámites administrativos
innecesarios o por falta de articulación entre las entidades prestadoras
del servicio de salud.
Este
pronunciamiento de la Corte Constitucional no solo representa un avance
significativo en la regulación del uso de inteligencia artificial en la
justicia, sino que también refuerza la necesidad de garantizar el acceso
equitativo a la salud para los niños con discapacidad, reafirmando el deber del
Estado y del sistema de salud de eliminar todas las barreras económicas,
geográficas y administrativas que puedan afectar el acceso oportuno y eficaz a
los tratamientos médicos esenciales.
La Sentencia
T-323/24 marca un punto de inflexión en dos grandes debates contemporáneos:
por un lado, la incorporación de la inteligencia artificial en la
administración de justicia, con un enfoque que prioriza el control humano, la
ética y el respeto por el debido proceso; y por otro, la garantía plena de los
derechos fundamentales de los niños en situación de discapacidad, estableciendo
un precedente crucial sobre la responsabilidad del sistema de salud en la
eliminación de cualquier barrera que limite su acceso a los servicios médicos
esenciales. Con ello, la Corte reafirma su papel como garante de la
Constitución y de los derechos humanos, adaptando la interpretación del derecho
a los desafíos de la era digital y las necesidades de las poblaciones más
vulnerables.
Contexto
y Antecedentes del Caso
La
acción de tutela fue presentada por Blanca en representación de su hijo menor
de edad, Emilio, quien padece Trastorno del Espectro Autista (TEA), contra la
Entidad Promotora de Salud (EPS) encargada de su atención. La demandante alegó
que la EPS vulneraba los derechos fundamentales del menor al negarle la
exoneración de copagos y cuotas moderadoras, no garantizar un transporte
adecuado para asistir a sus tratamientos y no ofrecer un tratamiento integral
conforme a sus necesidades médicas y sociales. Blanca argumentó que la EPS
incumplió la normatividad vigente que protege a los menores en condición de
discapacidad, colocándolo en una situación de riesgo y vulnerabilidad al
limitar su acceso a los servicios de salud esenciales. La EPS, a pesar de tener
la obligación de garantizar estos derechos fundamentales, no cumplió con las
disposiciones establecidas en la normatividad nacional e internacional que
buscan asegurar la protección especial de los niños en condición de
discapacidad, lo que llevó a la madre a acudir a la justicia en búsqueda de
amparo para su hijo, quien depende de una atención médica integral y sin
barreras para su adecuado desarrollo y calidad de vida.
El
caso fue conocido en primera instancia por el Juzgado Municipal, que resolvió a
favor del menor, ordenando a la EPS garantizar la exoneración de copagos y
cuotas moderadoras, así como brindar el transporte adecuado para que Emilio
pudiera asistir a sus tratamientos. Sin embargo, no se pronunció de manera
específica sobre la implementación de un tratamiento integral, bajo el
argumento de que no existía prueba suficiente en el expediente que demostrara
una negativa explícita de la EPS en brindar estos servicios. A pesar de ello,
la madre del menor insistió en la necesidad de un fallo más robusto que
obligara a la EPS a estructurar un plan de atención integral que incluyera un
esquema de terapias continuas, valoración interdisciplinaria y un seguimiento
especializado ajustado a la condición de su hijo.
En
segunda instancia, el Juzgado del Circuito confirmó la decisión inicial y,
adicionalmente, utilizó la herramienta de inteligencia artificial ChatGPT 3.5
para complementar su argumentación y fundamentar la resolución del caso. Esta
situación generó una fuerte controversia en el ámbito judicial, dado que el uso
de inteligencia artificial en la toma de decisiones judiciales plantea
interrogantes sobre la autonomía del juez y la garantía del debido proceso. En
este caso particular, el juez de segunda instancia recurrió a la herramienta de
IA para consultar normativas relacionadas con la protección de menores con
discapacidad, así como para obtener referencias jurisprudenciales sobre la
materia. Sin embargo, lo problemático radicó en que las respuestas generadas
por la IA no fueron sometidas a un proceso de verificación exhaustivo, y
tampoco se informó a las partes del uso de esta tecnología en la argumentación
de la sentencia, lo que suscitó dudas sobre la fiabilidad de la información
utilizada en la resolución del caso.
Ante
la controversia generada, la Corte Constitucional intervino y examinó el
impacto de la inteligencia artificial en la administración de justicia. En su
análisis, la Corte determinó que, aunque la herramienta de IA fue empleada
después de que el juez hubiera fundamentado su decisión, su utilización no
cumplió completamente con los principios de transparencia y responsabilidad que
rigen la función judicial. No se informó a las partes sobre su uso, lo que
impidió que estas pudieran cuestionar o impugnar la validez de la información
incorporada en la argumentación del fallo. Además, la Corte identificó que no
hubo un mecanismo de control que permitiera verificar la exactitud y
confiabilidad de los datos generados por la inteligencia artificial, lo que
representa un riesgo en el ámbito judicial, ya que el uso de estas herramientas
sin supervisión humana estricta puede llevar a la inclusión de información
inexacta, sesgada o descontextualizada en la toma de decisiones.
A
pesar de estos señalamientos, la Corte no anuló la decisión tomada en segunda
instancia, ya que determinó que el uso de ChatGPT no fue el factor determinante
en la resolución del caso, sino un complemento utilizado por el juez en su
argumentación. Sin embargo, advirtió que el empleo de herramientas de
inteligencia artificial en la administración de justicia debe ser objeto de
regulación estricta para evitar que comprometan la independencia judicial y el
derecho al debido proceso. En consecuencia, la Corte exhortó a las autoridades
competentes a establecer lineamientos claros sobre el uso de IA en el ámbito
judicial, asegurando que su implementación cumpla con principios de
transparencia, supervisión y fiabilidad.
En
cuanto a la protección de los derechos del menor, la Corte Constitucional
reafirmó la obligación de la EPS de garantizar la exoneración de copagos y
cuotas moderadoras, así como el acceso a un transporte adecuado para recibir
sus tratamientos. Además, enfatizó que cualquier barrera administrativa que
limite el acceso a los servicios de salud de personas en condición de
discapacidad es contraria a la Constitución y a los tratados internacionales
sobre derechos humanos. Con esta decisión, la Corte sienta un precedente
importante no solo en lo referente al derecho a la salud de menores con
discapacidad, sino también en relación con el uso de inteligencia artificial en
el ámbito judicial, estableciendo que, aunque la IA puede ser una herramienta
de apoyo, su uso debe estar sujeto a estándares estrictos que garanticen la
autonomía de los jueces y la protección de los derechos fundamentales.
Principios
Rectores para el Uso de la Inteligencia Artificial en la Justicia
Los
principios rectores para el uso de la inteligencia artificial en la justicia
deben garantizar la protección de los derechos fundamentales, la independencia
e imparcialidad judicial, y el debido proceso. "La garantía del juez
natural es piedra angular del ordenamiento jurídico superior porque es parte
integral del derecho al debido proceso". En este contexto, es imperativo
que la IA no reemplace las funciones indelegables del operador judicial, pues
"el uso de la IA en la administración de justicia, sin salvaguardas, puede
afectar el deber de motivar las decisiones judiciales, las garantías del juez
natural independiente e imparcial y el derecho a la defensa".
En la
sentencia T-323/24 se consideran esenciales la apropiación y aplicación de los
siguientes criterios orientadores en cuanto al uso de herramientas de IA como
ChatGPT por parte de los despachos judiciales:
"a.
Transparencia, entendida como la obligación de evidenciar con claridad y
precisión el uso, alcances y ubicación en las actuaciones o decisiones de los
resultados obtenidos por la utilización de tales herramientas, que permita a
los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de
contradicción."
"b.
Responsabilidad, comprendida como aquella obligación que existe de que el
usuario de la herramienta de IA se encuentre capacitado y comprenda los
impactos del uso de estas tecnologías, para a su vez dar cuenta del origen,
idoneidad y necesidad del uso de la IA y la información suministrada por la
misma, la cual debe ser verificada."
"c.
Privacidad, es aquel deber de custodiar y proteger la reserva de los datos
personales y sensibles que se ponen en conocimiento de la administración de
justicia para cumplir con los fines propios de la Rama Judicial."
"d.
No sustitución de la racionalidad humana, como expresión de la imposibilidad
ética y jurídica de sustituir la acción y la responsabilidad del individuo de
la especie humana en la gestión de las actuaciones y decisiones
judiciales."
"e.
Seriedad y verificación, que implica la obligación de realizar un estricto
escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias
y riesgos que presente la herramienta de cara a la actuación en curso o a la
solución del problema jurídico correspondiente."
"f.
Prevención de riesgos, como mandato en cuanto aplicar los estándares adecuados
de control sobre situaciones que generen riesgo por la aplicación de
tecnologías tales, en aspectos como imprecisiones, desactualizaciones,
alucinaciones, sesgos, inconsistencias y demás."
"g.
Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación
relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías
y su impacto negativo en la eficacia de los derechos humanos."
"h.
Control humano, en tanto considerando los anteriores criterios, siempre se
permita la realización efectiva de escrutinios sobre las actuaciones y
decisiones en que se usen herramientas de IA, mediante el acceso a la debida
información y el uso de recursos que deban ser resueltos por autoridades
humanas."
"i.
Regulación ética, que implica el desarrollo de estándares de comportamiento
individual que se adecúen a los mandatos superiores y legales y a las pautas
razonables para el uso de tales tecnologías por parte de los funcionarios y
servidores de la Rama Judicial."
"j.
Adecuación a buenas prácticas y estándares colectivos, en tanto se apliquen los
esquemas razonables que se definan para el funcionamiento de la Rama Judicial,
desde su autonomía e independencia, a partir de las definiciones que adopten
sus autoridades, tanto en sede de administración como de orientación
jurisprudencial."
"k.
Seguimiento continuo y adaptación, a efecto que el uso de tales tecnologías
consulte los avances jurídicos, sociológicos y tecnológicos que se vayan
implementando, así como los esquemas de mejora y control que se construyan en
forma progresiva."
"l.
Idoneidad. El uso de las tecnologías de la información y de las comunicaciones
en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser
adecuado para facilitar y agilizar el acceso a la justicia."
Dado
el impacto de la IA en la administración de justicia, se exhortó al Consejo
Superior de la Judicatura a establecer lineamientos específicos que aseguren la
aplicación de estos principios ya que "Las IA no pueden ser usada para
sustituir el razonamiento lógico y humano que le compete realizar a cada juez a
efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la
decisión, pues ello conllevaría una violación de la garantía del juez natural y
al debido proceso probatorio. En las instancias y en sede de revision de
tutelas se deberán aplicar controles que eviten la violación del derecho al
debido proceso por uso indebido de IA, entre los que se destaca la
autrorregulación ética". Además "identificar a un humano
responsable, es decir, que haya una persona individualizable e identificable a
quien se le pueda plantear las preocupaciones relacionadas con las decisiones
tomadas y que pueda evaluar las intervenciones realizadas por la IA".
Nos
recuerda la Corte Constitucional Colombiana que "... la Carta
Iberoamericana de Inteligencia Artificial en la Administración Pública ...
asume la necesidad de promover una serie de principios orientadores en el
desarrollo de la IA en la Administración Pública, que puedan ser compartidos
por todos los países de la región. Los anteriores están sustentados en los
derechos humanos como fundamento para una IA centrada en las personas,
confiable, robusta y orientada a la innovación, incluyendo el respeto de la
dignidad humana, la libertad individual, la igualdad y no discriminación, el
respeto a la democracia y el Estado de derecho, la libertad de pensamiento,
conciencia y opinión, el derecho a la educación, así como a tener buenos
gobiernos y administraciones públicas. La Recomendación se centra en cuestiones
de política que son específicas de la IA y se esfuerza por establecer un
estándar que sea implementable y lo suficientemente flexible como para soportar
la prueba del tiempo en un campo en rápida evolución".
Impacto
y Relevancia de la Sentencia
La
Sentencia T-323/24 no es solo un pronunciamiento más de la Corte Constitucional
de Colombia; es un verdadero punto de inflexión en la relación entre la
tecnología y la administración de justicia. Nos encontramos en un momento en el
que la inteligencia artificial empieza a permear ámbitos que hasta hace poco
parecían exclusivamente humanos, y la justicia no es la excepción. En este
caso, la Corte tuvo que enfrentarse a una pregunta que no es menor: ¿hasta qué
punto es válido que un juez utilice una herramienta como ChatGPT para
fundamentar sus decisiones? ¿Dónde se traza la línea entre el apoyo tecnológico
y la delegación indebida de la función jurisdiccional?
El
análisis de la Corte parte de un hecho concreto. Un juez de segunda instancia
consultó a ChatGPT 3.5 para complementar su decisión en un caso de tutela. No
es que la IA haya tomado la decisión por él, pero sí se incorporaron sus
respuestas dentro de la sentencia. Aquí es donde empiezan los dilemas. Por un
lado, la Corte reconoce que no hubo una sustitución del juez por la IA, porque
la decisión ya estaba tomada antes de la consulta. Sin embargo, advierte que el
uso de la herramienta no fue suficientemente transparente ni responsable. Y es
aquí donde el fallo se vuelve crucial, porque plantea una serie de principios
que deben regir la aplicación de la IA en los procesos judiciales. No se trata
de demonizar la tecnología ni de prohibir su uso, sino de establecer reglas
claras para que no se comprometan derechos fundamentales.
La
sentencia introduce criterios que van desde la transparencia hasta la no
sustitución de la racionalidad humana. Y esto es clave, porque el uso de IA en
la justicia puede traer enormes ventajas en términos de eficiencia, pero
también riesgos muy serios si no se implementa con el debido control. La Corte
advierte sobre fenómenos como las alucinaciones de los modelos de IA, es decir,
la generación de información falsa o distorsionada, y sobre los sesgos que
pueden estar presentes en estas herramientas. Un juez que confíe ciegamente en
la IA sin verificar sus respuestas podría terminar apoyando su decisión en
información errónea, y eso comprometería gravemente el debido proceso.
No es
casualidad que el fallo ordene al Consejo Superior de la Judicatura la
elaboración de una guía para el uso de la IA en la Rama Judicial. Se reconoce
que la tecnología está aquí para quedarse y que prohibir su uso sería tan
ingenuo como riesgoso, pero al mismo tiempo se subraya que el ejercicio de la
función judicial no puede delegarse a una máquina. La inteligencia artificial
puede ser una herramienta valiosa para mejorar la gestión judicial, agilizar el
análisis de grandes volúmenes de información o incluso identificar patrones en
la jurisprudencia, pero nunca puede reemplazar el juicio crítico de un juez.
Este
fallo sienta un precedente que va más allá de Colombia. Es parte de un debate
global sobre cómo las sociedades deben regular el uso de la IA en decisiones
que afectan derechos fundamentales. En un mundo donde cada vez más países
experimentan con sistemas automatizados en la justicia, la Corte Constitucional
colombiana establece un principio que debe servir de referencia: la tecnología
es un medio, no un fin, y su uso debe estar supeditado a principios jurídicos
inquebrantables. Es un recordatorio de que el derecho sigue siendo, en su
esencia, una construcción humana y que la justicia, por más que se apoye en la
IA, no puede perder su componente esencialmente racional y ético.
Conclusión
La
Sentencia T-323/24 de la Corte Constitucional de Colombia representa un
parteaguas en la convergencia entre derecho y tecnología, no solo por la
regulación del uso de la inteligencia artificial en la administración de
justicia, sino también por la forma en que sienta un precedente fundamental en
la protección de los derechos fundamentales. En un mundo donde la
automatización avanza sin frenos, la Corte lanza una advertencia clara: la
justicia no puede, no debe y no será reducida a simples lógicas algorítmicas.
A lo
largo del fallo, se percibe un esfuerzo deliberado por evitar que la tecnología
desplace la racionalidad crítica del juez, reafirmando que el derecho no es una
serie de reglas aplicables de manera mecánica, sino una construcción
hermenéutica compleja, donde cada palabra, cada matiz, cada interpretación,
tiene consecuencias tangibles en la vida de las personas. Resulta
particularmente relevante el análisis sobre los riesgos de sesgos algorítmicos
y la falta de transparencia en la implementación de la IA en los procesos
judiciales. No se trata, simplemente, de una preocupación teórica o
especulativa, sino de una problemática real y latente: los modelos de IA pueden
reflejar y amplificar desigualdades estructurales, influir en decisiones sin un
control humano efectivo y erosionar principios esenciales del debido proceso.
Por
otro lado, el pronunciamiento de la Corte respecto a la garantía del derecho a
la salud de los menores en situación de discapacidad revela otro aspecto
fundamental de la decisión: la tecnología debe estar al servicio del ser
humano, y no a la inversa. La orden de eliminar barreras administrativas que
impiden el acceso oportuno a la salud es un recordatorio contundente de que los
principios constitucionales no pueden quedar subordinados a lógicas de
eficiencia institucional. La burocracia, cuando impide o dilata la realización
de derechos fundamentales, se convierte en un obstáculo ilegítimo que las
instituciones están obligadas a remover.
El
fallo, sin embargo, no es solo una declaración de principios, sino una hoja de
ruta para el futuro. La exhortación al Consejo Superior de la Judicatura para
que establezca lineamientos claros sobre el uso de la IA en el ámbito judicial
es una medida que, si bien oportuna, llega con un retraso preocupante. No es
casualidad que la decisión se tome en un momento en que el avance de la
automatización plantea interrogantes urgentes sobre los límites de la
tecnología en la toma de decisiones judiciales. La Cuestión es clara: ¿puede
una herramienta como ChatGPT reemplazar el análisis humano? La Corte responde
con un rotundo "no" y establece que la IA, aunque pueda ser utilizada
como una herramienta auxiliar, no puede sustituir la capacidad deliberativa de
los jueces, ni comprometer la independencia judicial.
En
definitiva, la Sentencia T-323/24 marca una posición firme en dos frentes:
primero, la regulación estricta y necesaria del uso de la IA en la justicia,
garantizando que su aplicación se rija por principios de transparencia,
verificabilidad y control humano. Segundo, la reafirmación inquebrantable de
que la protección de los derechos fundamentales no puede verse supeditada a
barreras administrativas o tecnológicas. En un mundo donde la tecnología avanza
más rápido que la regulación, la Corte Constitucional de Colombia envía un
mensaje inequívoco: el derecho sigue siendo una creación humana, y la justicia,
por encima de todo, debe seguir estando en manos de quienes pueden razonar,
discernir y decidir con criterio propio, sin delegar esta responsabilidad en
algoritmos que carecen de empatía, contexto y sentido de justicia.
0 comentarios:
Publicar un comentario
Siempre es bien recibida una opinión