top of page

¿IA como perito o experto en juicio? Una nueva frontera explorada

  • Foto del escritor: Juan Pablo Domínguez Angulo
    Juan Pablo Domínguez Angulo
  • 18 mar
  • 6 Min. de lectura

NOTA: Artículo realizado con apoyo, en su redacción, por GEMINI, en el resumen de la providencia, por NotebookLM, y en la imagen por NanoBanana. Es muy importante, actualmente, saber usar estas tecnologías y entender cuáles son sus potencialidades y en qué puede apoyar cada una.



Recientemente el Tribunal Superior del Distrito de Cali confirmó que el uso de modelos de lenguaje (como ChatGPT Pro) no puede ser admitido como prueba técnica o pericial en un proceso de responsabilidad médica (ver la providencia). El tribunal negó la solicitud de utilizar el modelo de inteligencia artificial (ChatGPT Pro) como medio de prueba basándose en una serie de razones procesales, técnicas y constitucionales:


1. Defectos formales y procesales de la solicitud


·         Petición genérica y abstracta: La solicitud de llevar a ChatGPT a una audiencia para hacerle preguntas abiertas fue considerada abiertamente genérica, indeterminada y abstracta. La parte demandante no especificó el objeto de la prueba, qué hechos precisos pretendía acreditar, ni delimitó sobre qué aspectos de la historia clínica se pronunciaría.

·         Falta de rigor metodológico: El tribunal consideró que pretender sostener un diálogo abierto o conversatorio judicial con un chatbot, sin un cuestionario previo ni una metodología definida, es incompatible con las exigencias mínimas de necesidad, pertinencia, conducencia y control de la prueba


2. Incompatibilidad jurídica con los medios de prueba


·         Las IA no son un perito ni un testigo válido: La ley exige que los testigos técnicos o peritos sean personas naturales o auxiliares de la justicia humana

·         ChatGPT no es un sujeto humano, por lo que no puede rendir un dictamen pericial válido ni cumplir con los rigurosos requisitos que exige el Código General del Proceso para este tipo de pruebas.

·         El tribunal enfatizó que catalogarla simplemente como una prueba técnica era un intento vano de eludir los requisitos legales.


3. Limitaciones técnicas y falta de fiabilidad de la IA


·         Falta de verdadero conocimiento: El tribunal aclaró que los modelos de lenguaje generativo no saben ni comprenden la información de manera semántica, sino que operan como mecanismos de predicción probabilística basados en estadísticas y patrones de lenguaje.

·         Riesgo de alucinaciones: Estas herramientas tienden a generar información falsa o carente de respaldo fáctico, pero presentada con apariencia de autoridad.

·         Opacidad y falta de trazabilidad: Es extremadamente difícil comprender el funcionamiento algorítmico interno (opacidad algorítmica) para saber cómo el sistema llegó a un resultado.

·         Además, existe una gran dificultad para establecer la trazabilidad y verificar las fuentes de información utilizadas por la IA.

·         Sesgos y complacencia: Los modelos presentan sesgos que pueden producir distorsiones o discriminación, además de sufrir del chat-chamber effect, que es la tendencia a responder lo que el usuario espera escuchar.


4. Riesgos constitucionales y al debido proceso


·         Afectación a la contradicción e intimidad: Admitir la prueba en esos términos pondría en riesgo el derecho de contradicción de la contraparte, así como la intimidad y la protección de datos personales (habeas data) que podrían quedar expuestos a terceros.

·         Sustitución de la racionalidad humana: Existe una prohibición de que la inteligencia artificial sustituya la racionalidad humana en la función jurisdiccional o en la conformación de la prueba. Delegar estas funciones en un algoritmo representa un riesgo de pérdida del control humano y de influencia indebida en el convencimiento del juez.

En conclusión, el Tribunal determinó que, si bien la IA puede servir como un valioso instrumento auxiliar, jamás puede operar como un sustituto del juicio crítico y de la responsabilidad humana que el ordenamiento jurídico confía exclusivamente al juez y a los operadores jurídicos.


Comentarios al respecto de la decisión


Tal decisión es algo que se comparte, pero vale la pena hacer algunas acotaciones y observaciones.


1. La IA no acredita conocimientos técnicos reales


Para una IA no es posible acreditar conocimiento sobre ciertos sectores del conocimiento, como para que se cumpla con los requisitos del CGP (art. 226: 3. La profesión, oficio, arte o actividad especial ejercida por quien rinde el dictamen y de quien participó en su elaboración.), salvo que podamos acceder a las formas de entrenamiento de estos aparatos y veamos, concretamente, cuál fue su entrenamiento respecto del conocimiento que se le solicita al experto en una situación dada. Tal información es a menudo reservada como propiedad industrial.


2. No pueden justificar el uso de una metodología.


Otro requisito, tan relevante como olvidado de los peritajes, tiene que ver con la metodología usada en el peritaje:


"8. Declarar si los exámenes, métodos, experimentos e investigaciones efectuados son diferentes respecto de los que ha utilizado en peritajes rendidos en anteriores procesos que versen sobre las mismas materias. En caso de que sea diferente, deberá explicar la justificación de la variación.


9. Declarar si los exámenes, métodos, experimentos e investigaciones efectuados son diferentes respecto de aquellos que utiliza en el ejercicio regular de su profesión u oficio. En caso de que sea diferente, deberá explicar la justificación de la variación."


Al respecto se presentan dos problemas:


El primero, es que la elección de una metodología es una cuestión de escogencia según las tendencias del investigador, no obstante, la IA ni hace ese tipo de escogencias ni tiene tendencias porque no tiene marcos teóricos desde los que trabaje, ni mucho menos llega a justificar la pertinencia de un marco teórico u otro. A diferencia de lo que dice el Tribunal, el problema de las IA’s es que no tienen sesgos, no tienen tendencias, tienen todo el conocimiento humano a su disposición y lo usan indistintamente, sin preferencias (tienen otro tipo de sesgos, como que se alimentan de los prejuicios de internet, pero no tienen los sesgos apropiados para la investigación científica). En otras palabras, no poseen marcos teóricos, no poseen un aparato teórico desde el cual pensar porque usan un popurrí de teorías sin articulación: el internet entero.


Por su parte, el segundo problema que tienen las inteligencias artificiales como investigadoras científicas es que se quedan exactamente en la media, en el promedio, por lo que su interés investigativo no es avanzar en el estado del arte de la ciencia, sino quedarse justamente en lo ya conocido y con más probabilidades de ser usado por los seres humanos en una conversación. Por lo tanto, son malas científicas, porque, aunque son capaces de observar millones de datos, como cuando observan imágenes diagnosticas y son capaces descubrir problemas médicos que le cuesta observarlos al ser humano, con esos datos las inteligencias artificiales no son capaces de hacer algo novedoso, sino que se quedan en la media, en lo ya conocido, lo cual es excatamente lo contrario a lo que hace un científico: ir más allá del estado del arte.


3. Incapacidad para ejercer profesiones reguladas


Debe recordarse, además, que hay ciertas profesiones u oficios que no pueden ser ejercidos sino por alguien que detente una tarjeta profesional, y solo metafóricamente se podría decir que una IA puede llegar a obtener una. El uso de ChatGPT para observaciones médicas es el ejercicio ilegal de una profesión, lo cual tiene mucho sentido, porque aunque se usan IA's en trabajos científicos, no es posible prescindir de la supervisión humana, obviamente, muchos menos en profesiones que por ser peligrosas tienen tarjeta profesional.


4. La imposibilidad de comparecencia


La ley reserva la figura del perito exclusivamente para la persona natural porque es indispensable que comparezca a juicio para ser contradicha la prueba. Dado que ChatGPT no es un sujeto humano ni un auxiliar de la justicia, su comparecencia en audiencia es legalmente imposible. De nuevo, solo metafóricamente se puede mantener un diálogo con un chatbot en audiencia, especialmente por la siguiente razón:


5. Ausencia de responsabilidad y juramento


Un requisito esencial de la prueba es la identificación de un autor que asuma responsabilidad directa por el contenido, mediante juramento. La IA no puede prestar juramento ni responder por sus afirmaciones, de hecho, no sabe muy bien, ni sus programadores, cómo es que llega a las conclusiones que llega. Esto genera un riesgo de alucinaciones (información falsa presentada con apariencia de autoridad) por las que nadie rinde cuentas ni es posible detectar su origen e incidencia. Esto, evidentemente, afecta la credibilidad del "perito".


6. Opacidad algorítmica (Caja Negra) y la anulación del derecho a la contradicción


El uso de IA en el proceso vulnera el derecho de contradicción. El Tribunal ya destaca la opacidad algorítmica, lo que significa que los procesos internos para llegar a un resultado no son transparentes ni comprensibles para el juez o las partes. Sin transparencia ni trazabilidad de las fuentes, la prueba no puede ser controlada ni verificada, sea por los humanos o sea por las mismas máquinas o sus desarrolladores.  


7. La prueba innominada y el Fraude a la ley


Aunque existe libertad probatoria y, por lo tanto, se puede salir del catálogo de las pruebas que expone el CGP, esta libertad no permite disfrazar un peritaje como prueba innominada para esquivar los controles que esta tiene y evadir así requisitos legales. Las reglas procesales son de orden público, de obligatorio cumplimiento, y dejar de identificar a una prueba como lo que es, una opinión técnica y pasarle a llamar prueba innominada es, evidentemente, un intento de defraudar la ley y todas las regulaciones del peritaje que tienen sentidos técnicos y aseguran su fiabilidad.


8. ¿Se pueden usar los resultados de las IA en un proceso?


Por supuesto que sí, es más, considero que en esto no hay ninguna novedad: las opiniones de la IA hacen parte de los alegatos del abogado, alguien con tarjeta profesional y que se hace responsable por esas opiniones. Incluso, eso se ha hecho siempre: los jueces han consultado libros médicos, artículos de revistas, pero eso no hace parte de un peritaje sino que simplemente hace parte de la motivación de la sentencia, de la cual se responsabiliza el juez.


 
 
 

Comentarios


bottom of page