LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

26/04/2024. 18:34:23

LegalToday

Por y para profesionales del Derecho

¿Infracción de las reglas de la sana crítica al dictar sentencia una inteligencia artificial?

Licenciado en Ciencias Jurídicas por la Universidad de El Salvador

A propósito de la sentencia del juez colombiano Juan Manuel Padilla García, quien preside el Juzgado Primero del Circuito de la Ciudad de Cartagena, admitió abiertamente haber usado ChatGPT para fundamentar su sentencia. La pregunta de fondo es la siguiente: ¿se infringen las reglas de la sana crítica al pronunciar sentencia al abrigo de una IA?

De entrada, podría decirse que no, pero veamos un análisis más profundo: la disputa del caso en cuestión versó sobre la cobertura de un seguro con respecto a un niño autista. Pero más allá de que un chatbot logre realizar con éxito “La Prueba de Turing”, debemos ceñirnos también al ámbito jurídico, puesto que no es descartable un medio impugnativo para la parte material perdidosa en el caso, ya que una interpretación extensiva permitiría apreciar que si bien es cierto, formalmente, un juez suscribió la autoría de dicha sentencia, en realidad, no tenemos certeza de qué partes fueron producto del trabajo intelectivo del juez y qué partes fueron producto de “Procesamiento de Lenguaje Natural” (NLP).

El juez colombiano tuvo la cortesía de aclarar que “Los argumentos de esta decisión se determinarán de acuerdo con el uso de la Inteligencia Artificial”, aunque nótese una de las dos preguntas que realizó el juez supra mencionado: ¿Ha citado la jurisprudencia constitucional resoluciones favorables en casos similares? Esta pregunta me parece más que justificada y no considero que haya infracción de las reglas de la lógica, la experiencia o la psicología. Sin embargo, es preocupante el enfoque de la segunda pregunta: ¿Está exonerado un menor autista del pago de tasas por sus terapias? Ahora bien: ¿no debería el juez tener los conocimientos suficientes para recibir los hechos y aplicarlos al derecho?, ¿acaso no se infringió el principio Iura novit curia?, ¿nos encontrábamos ante un juicio de mero derecho para justificar una pregunta cerrada por parte del suscrito juez?

Habría que determinar qué clasificación tendría una Inteligencia Artificial para efectos legales: ¿será un perito?, ¿cuál es el algoritmo que le permite determinar la respuesta correcta?, ¿su programación específicamente se circunscribe al caso en disputa?, ¿es una Inteligencia Artificial Generativa exclusiva aplicable al ámbito legal o es una especie de diccionario novedoso que recopila infinidad de datos de la red?, ¿Data crunching? Téngase en cuenta que ChatGPT es una IA en constante evolución. El juez debió aclarar la versión que empleaba, y cabe la posibilidad de contrastar esas respuestas con una futura versión más reciente. Y si somos más extremistas podríamos servirnos del argumento más letal: ¿tiene un título universitario ChatGPT para ejercer la profesión de abogado o la función de la judicatura? Lo anterior, equivaldría a considerar cuando menos plausible las apreciaciones de ChatGPT con respecto al caso. Entonces, ¿cuál fue la motivación del juez para servirse de ChatGPT?, ¿En qué parte “amplió los argumentos de la decisión adoptada”?, ¿en la lógica, la psicología o la experiencia común?

No lo sabemos. Pero quisiéramos saberlo.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.