EJES
TEMÁTICOS


 

La aplicación de la inteligencia artificial
en el proceso laboral


 

Propuesta de uso de la inteligencia artificial durante la valoración probatoria

Proposed use of artificial intelligence in evidence evaluation

francisco Carrasco Cabezas*

Universidad de San Martín de Porres

Correo electrónico: fcarrascocabezas@gmail.com

https://orcid.org/0000-0002-0704-9742

Resumen: Este trabajo se propone analizar el uso de la inteligencia artificial (IA) de modo que sirva como herramienta de apoyo al momento de realizar la valoración probatoria en los procesos judiciales. Para este cometido se señalan algunos límites técnicos que caracterizan a estos modelos, concibiendo la necesidad de la supervisión humana. A su vez, se describen los problemas de un uso irresponsable, ilustrando casos de la vida real, concluyendo que la IA debe actuar como un complemento que ayuda en el cometido de clasificar y analizar procesos, pero no puede reemplazar el ejercicio de la función de administrar justicia del juez.

Abstract: This research aims to analyze the use of artificial intelligence (AI) as a tool to support the assessment of evidence in judicial proceedings. To this end, it highlights some of technical limitations that characterize these models, highlighting the need for human oversight. It also describes the problems of irresponsible use, illustrating real-life cases. It concludes that AI should act as a complement to help classify and analyze cases but cannot replace the judge’s function.

Palabras clave: Inteligencia artificial, valoración probatoria, silogismo judicial, razonamiento jurídico.

Keywords: Artificial intelligence, evidence evaluation, judicial syllogism, legal reasoning.

Recibido: 23/02/2025        Aceptado: 24/03/2025        Publicado en línea: 31/03/2025

Sumario: I. Introducción; II. El Silogismo y La Función del Razonamiento en la Valoración de la Prueba (Premisa Mayor, Premisa Menor, Conclusión, A) deducción, inducción y abducción en el razonamiento jurídico, a. ejemplos de deducción, inducción y abducción en premisas fácticas); III. Ejemplos de deducción, inducción y abducción en premisas fácticas. IV. Algunos fundamentos técnicos de la IA. a. Falta de sentido común, b. Incapacidad para realizar razonamiento abductivo; V. IA y su uso responsable en la valoración probatoria (a) capacidades técnicas utilitarias de la IA para la valoración probatoria, b) Aplicación de la IA en la clasificación y análisis probatorio); VI. Consecuencias del uso irresponsable de la IA en procesos judiciales; VII. Conclusiones. Referencias.

 

I.        INTRODUCCIÓN

La administración de justicia, y especialmente la justicia de trabajo, requiere una proximidad particular entre el juez y las circunstancias fácticas del caso que va a resolver, amparada bajo el principio procesal de inmediación debido a que es indispensable que aplique un discernimiento minucioso caso a caso. No obstante, la creciente acumulación de causas judiciales, aunada a la complejidad de los conflictos laborales contemporáneos, requiere implementar soluciones que optimicen la gestión de los procesos judicial sin descuidar la mencionada cercanía esencial entre el juzgador y los hechos.

Tal como menciona Iturralde, la amplia gama de actividades que debe desarrollar el juez en la aplicación del derecho, permiten rechazar la pretensión de un ordenamiento jurídico del que se pueda deducir directamente una única solución aplicable al caso particular. Por tanto, en muchos procesos, la decisión judicial implica necesariamente una elección entre diversas opciones posibles (Iturralde, 1991, p. 241). Esto significa que la labor jurisdiccional no puede reducirse a una operación mecánica; requiere, en cambio, un ejercicio interpretativo profundo y equilibrado.

La motivación y la justificación de sus decisiones ocupan un lugar central en la labor de los administradores de justicia porque deben ponderar cada componente de la toma de decisiones del caso. Un procedimiento viable para motivar las decisiones judiciales es organizar el sistema de razonamiento con una premisa mayor, una menor y una conclusión.

Al respecto, en opinión de algunos académicos, este enfoque se refiere como la teoría del silogismo judicial, que se entiende dentro del contexto de que las decisiones judiciales resultan de la subsunción de un evento particular dentro de las condiciones especificadas por la norma legal aplicable (Iturralde, 1991, p. 242).

¿Asistirá la IA como una ayuda técnica en esta tarea básica? De hecho, las capacidades de la inteligencia artificial sirven a un propósito cuando se trata de filtrar grandes cantidades de datos y de catalogarlos y procesarlos; sin embargo, antes de aceptar la integración total de la IA en cualquier labor relacionada con la administración de justicia, debemos conocer las consecuencias de aplicar la IA a tareas que comprenden aspectos que superan sus límites, o peor aún, de no entender los límites de la IA.

En este artículo proponemos una crítica que no cierra la puerta a la inteligencia artificial, sino que consideramos que la IA puede ser aceptada siempre que funcione como un complemento estrictamente controlado por la supervisión humana.

Por tanto, en el desarrollo de los capítulos que siguen, se analizarán así las ventajas potenciales, junto a los riesgos identificados en el uso de la IA. Específicamente, utilizada durante la valoración probatoria (como parte necesaria del silogismo), resaltando cómo los modelos de IA existentes pueden—siempre bajo vigilancia constante— facilitar la eficiencia procesal sin afectar la función interpretativa del juzgador.

II.        EL SILOGISMO Y LA FUNCIÓN DEL RAZONAMIENTO EN LA VALORACIÓN DE LA PRUEBA

Como se ha señalado líneas arriba, el proceso de toma de decisiones judiciales se lleva a cabo con la certeza de la trazabilidad lógica y sistemática que existe dentro del sistema legal y un contexto fáctico particular. Para evaluar si la justicia se administra de manera sistemática y lógica, podemos recurrir al silogismo jurídico, que tiene tres partes definidas:

1.        Premisa mayor: Se refiere a la norma legal, principio, precedente vinculante o regla que se relaciona con el caso.

2.        Premisa menor: Son los hechos el caso, a los cuales el juzgador se llega a la convicción que ocurrieron por la revisión de las piezas particulares de evidencia, admitidas, actuadas (cuestionadas o no).

3.        La conclusión. La aplicación sistemática de la norma (premisa mayor) a los datos que corroboren hechos que el juez asume como correctos (premisa menor).

La premisa mayor, por ejemplo, en un caso de despido fraudulento, vendría a ser la definición desarrollada por el Tribunal Constitucional en la sentencia STC 976-2001-AA/TC, donde se indica que un trabajador podrá ser repuesto cuando el empleador lo despida actuando intencionalmente con engaño, violando la buena fe laboral, aunque aparente cumplir con el procedimiento formal de desvinculación.

Por el contrario, la premisa menor en la conclusión de lo que ocurrió en el plano de los hechos. Es la convicción a la cual el juzgador llega a través de los medos probatorios que son aportadas por las partes en el proceso. Esto puede incluir un análisis en profundidad de testimonios, documentos, informes técnicos o dictámenes de expertos que demuestran, por ejemplo, que el trabajador no cometió una falta grave, sino que el empleador buscó una excusa para despedir al trabajador.

Finalmente, la conclusión surge del contraste lógico entre la norma jurídica y los hechos probados. Hay una coincidencia directa entre la situación actual que ha sido probada (premisa menor) y el supuesto previsto por la norma (premisa mayor), se genera la consecuencia jurídica correspondiente.

En ese sentido, tanto la interpretación de las reglas como la evaluación documental de la evidencia son procesos que requieren un razonamiento lógico preciso y estricto.

Como vemos, este entendimiento sugiere el uso de métodos fundamentales como: deducción, inducción y abducción, que se pueden definir de manera concisa de la siguiente manera:

A.        Deducción: Comienza con una premisa - una declaración general y resulta en una conclusión, - que es una declaración más particular y específica.

B.        Inducción: Este enfoque consiste en observar declaraciones particulares y hacer una conclusión general basada en ellas.

C.        Abducción: Esta definición explica el razonamiento como la explicación más plausible y simple de un evento o fenómeno que es percibido con información insuficiente pero que podría ser posible.

Las diferentes modalidades de prueba—deductiva, inductiva y abductiva—permiten al juez lograr una valoración global de los hechos establecidos.

Como cualquier proceso de pensamiento, este proceso depende en gran medida de la experiencia individual, los sesgos personales, así como de los principios morales y éticos que forman parte del juez.

Cabe señalar que hasta este punto el enfoque era eminentemente fáctico sin tocar propiamente la reflexión legal en sí que, debido a limitaciones de tiempo, no se desarrollará dentro del marco de este artículo, sin embargo, si es posible ahondar en las formas de razonamiento para solucionar controversias normativas en las premisas mayores con asistencia de IA.

III.        EJEMPLOS DE DEDUCCIÓN, INDUCCIÓN Y ABDUCCIÓN EN LA ACTIVIDAD PROBATORIA

La presente sección busca servir de introducción a cómo la inteligencia artificial puede contribuir específicamente en la estructuración y organización de las pruebas judiciales, facilitando la tarea del juez en la valoración, pero siempre respetando su función interpretativa.1.

Primero, debemos considerar lo siguiente: El análisis judicial de la premisa menor consiste en realizar un examen detallado de los hechos y pruebas que se han presentado para llegar a conclusiones válidas sobre lo que ocurre en cada caso individual y así, a continuación, se proporcionarán algunos ejemplos específicos de estos métodos de razonamiento:

a)        Un ejemplo de deducción de declaraciones:

        En un proceso judicial, de una demanda que trata de reducción de remuneraciones el trabajador presenta su contrato original que establece un salario de S/ 5,000.00 soles mensuales y un correo posterior, que no está respondido (es decir, una decisión unilateral del empleador) que sin aportar pruebas ni mayor justificación, le informa al trabajador que por motivos de liquidez en la empresa, las personas que reciban más de S/ 4,000.00 soles tendrán un recorte salarial de 10% durante 9 meses consecutivos, además, el trabajador presenta el reporte de movimiento de su banco, donde se ve que percibió dos meses S/ 5,000.00 soles, y luego S/ 4,500.00 soles hasta la fecha de interposición de la demanda.

        Podemos graficar esto del siguiente modo:

[1] Contrato Original

        Establece salario de S/5,000 mensuales

 

[2] Comunicación del Empleador

        Correo unilateral (sin respuesta ni pruebas)

        Anuncia: “Para quienes ganen > S/4,000, se aplicará un recorte del 10% durante 9 meses”

 

[3] Evidencia del Reporte Bancario

        Primeros dos meses: S/5,000 (salario íntegro)

        Meses posteriores: S/4,500 (indica reducción del 10%)

 

[4] Deducción Lógica

        Reducción del 10% sobre S/5,000 resulta en S/4,500

 

[5] Conclusión

        La disminución salarial efectuada (de S/5,000 a S/4,500) corresponde a un recorte del 10%, aplicado de forma unilateral y sin la debida justificación o consentimiento contractual.

 

        Se trata de un razonamiento deductivo, ya que parte de premisas verificables y establecidas (el contrato original que fija el salario, el correo electrónico unilateral del empleador y el reporte bancario) para aplicar una regla general (la obligación de respetar las condiciones contractuales) y, a partir de ellas, inferir necesariamente que la reducción salarial aplicada constituye una modificación no autorizada del contrato que reduce la remuneración.

b)        Ejemplo de razonamiento inductivo:

        En el marco de un proceso de reclamación de horas extraordinarias, el trabajador aporta como elementos de convicción una serie de registros electrónicos de ingreso y salida del centro de labores, así como diversos testimonios uniformes de compañeros de trabajo que afirman haberlo visto permanecer en su puesto fuera del horario regular durante varios meses consecutivos. Si bien no existe evidencia documental que demuestre de forma directa que este patrón de trabajo se repitiera absolutamente todos los días, la reiteración consistente de tales hechos permite establecer un comportamiento regular y sostenido en el tiempo.

Gráficamente, podríamos representarlo así:

[1] Registro Electrónico de Ingreso y Salida

        Muestra reiteradas salidas posteriores al horario establecido

 

[2] Testimonios de Compañeros

        Describen una práctica habitual de permanencia extendida en el centro de trabajo

 

[3] Reiteración en el Tiempo

        Conducta repetida durante varios meses consecutivos

 

[4] Inferencia Inductiva

        A partir de múltiples observaciones consistentes se construye una generalización: El trabajador laboraba horas extraordinarias de manera regular

 

[5] Conclusión

        El juez reconoce la existencia de una prestación de trabajo fuera del horario pactado, aunque no pueda acreditarse cada jornada específica.

 

 

        Este es un razonamiento típicamente inductivo: se parte de un conjunto de observaciones particulares, reiteradas y verificables (como los registros electrónicos y los testimonios), para arribar a una conclusión general que presume la existencia de un patrón de exceso de jornada. La fuerza probatoria se construye, así, sobre la frecuencia y consistencia de los datos disponibles, sin que sea necesaria una prueba directa de cada día trabajado en exceso.

c)        Ejemplo de razonamiento abductivo:

        Un trabajador, que hasta ese momento no había recibido amonestación alguna ni había sido advertido sobre un bajo desempeño, envía a su empleador un correo electrónico en el que expone la existencia de condiciones de trabajo que podrían poner en riesgo la seguridad e integridad física del personal. Ese mismo día, en horas de la tarde, recibe un mensaje informal de WhatsApp por parte del supervisor directo, comunicándole que su vínculo laboral queda resuelto con efecto inmediato.

        No se ofrece, ni en ese momento ni posteriormente, una explicación razonable ni evidencia documental que justifique el despido. Tampoco se le entregó carta de preaviso o se siguió procedimiento interno alguno.

        La línea de razonamiento puede describirse así:

[1] Correo del Trabajador

        Informa condiciones peligrosas en el lugar de trabajo

 

[2] Despido Inmediato vía WhatsApp

        Mismo día de la denuncia, sin causa aparente ni procedimiento

 

[3] Ausencia de Evidencia de Causalidad Directa

        No hay pruebas objetivas de represalia, pero sí coincidencia temporal significativa

 

[4] Hipótesis más Plausible

        Según la experiencia de la jueza, la empresa actuó en represalia ante la queja

 

[5] Conclusión

        Se sostiene, provisionalmente, que el despido fue una medida de represalia, con base en la evidencia disponible y la coherencia racional del vínculo entre hechos.

 

 

        Nos encontramos, en este caso, ante un ejemplo de razonamiento abductivo. A partir de hechos incompletos y sin prueba directa de la intención del empleador, la jueza sugiere la explicación más probable y coherente con los elementos disponibles: el despido fue una reacción ante la denuncia del trabajador. Este tipo de razonamiento no garantiza certeza, pero permite formular una inferencia provisional razonada, especialmente en contextos donde la información relevante está parcial o estratégicamente oculta.

IV.        ALGUNOS FUNDAMENTOS TÉCNICOS DE LA IA

En esta parte, se discutirán brevemente las propiedades técnicas de la inteligencia artificial, con el objetivo de identificar las piezas precisas de la evaluación probatoria a las que puede aportar una contribución útil, como complemento del análisis humano. La IA se refiere a una colección de modelos algorítmicos que están destinados a recrear ciertas funciones cognitivas humanas, como pensar, aprender, reconocer patrones, resolver problemas, etc. Pero por mucho que sea capaz de hacerlo, todo es puramente estadístico, sin ninguna comprensión real de qué es. Dentro de ese sistema, el modelo operativo técnico de estructuras lingüísticas progresivas como ChatGPT se centra en las proyecciones de probabilidad de sus palabras, es decir, eligiendo la palabra que tiene más probabilidades de tener sentido lingüístico en el contexto inmediato, basado en las relaciones estadísticas que surgieron con el volumen de entrenamiento.

Sin embargo, el modelo, como lo describe Wolfram (2023), no sabe realmente lo que significa el texto ni tiene ningún contexto real en el que situar ese texto; lo único que hace es predecir la palabra siguiente más probable basándose en un historial de patrones. Por lo tanto, aunque producen respuestas coherentes y plausibles, su modo de operación tiene poco que ver con el razonamiento interpretativo que es el sello distintivo del ser humano.

No se puede negar que la aparición de estas tecnologías generativas y la capacidad de realizar búsquedas y filtros rápidos, así como organizar enormes cantidades de datos para su revisión con un clic de un botón, ha cambiado la forma en que podemos aprender, estudiar y trabajar, incluido lo que corresponde al mundo legal. Sin embargo, por lo anteriormente explicado, se debe tener en cuenta que estas herramientas tienen una gran limitación debido al déficit de sentido común, la evaluación ética que les falta, lo que demuestra que siempre necesitamos la intervención y previsión humana.

Así, aunque la IA ha hecho progresos impresionantes en muchas tareas, hay ciertos muros cognitivos que la impiden reemplazar al juez interpretativo:

a)        Falta de sentido común:

        Mientras que estos modelos son capaces de manejar preguntas lógicas elementales con precisión —por ejemplo, es mucho más probable que el plomo pese más que las plumas— todavía cometen enormes errores cuando se presentan con ambigüedades, en situaciones en que se deben determinar contradicciones entre cláusulas o identificar excepciones no explícitas en contratos. Por ejemplo, en situaciones donde las cláusulas contractuales son deliberadamente vagas o redactadas estratégicamente, los sistemas de IA tienden a realizar interpretaciones literales que no capturan el alcance general de las acciones interpretativas potenciales, lo que puede hacer que las soluciones generadas por la IA sean rápidamente absurdas e incluso imposibles de implementar financieramente.

b)        Incapacidad para realizar razonamiento abductivo:

        El razonamiento abductivo es el proceso de crear hipótesis plausibles basadas en datos incompletos o poco claros, una habilidad clave para comprender adecuadamente pruebas cuestionables en situaciones de callejón sin salida. La polémica con Chacón Sartori (2023) establece que los modelos actuales no pueden hacer inferencias abductivas por sí mismos. Esta limitación consiste en que los modelos actuales solo producen textos derivados estadísticamente, pero por lo tanto coherentes. No pueden generar cobertura de otros valores o espacio de conocimiento previo en términos de un concepto previamente no correlacionado como explicación del fenómeno.

En conclusión, a pesar de su velocidad y versatilidad operativa, la inteligencia artificial no tiene conciencia y sentido común, que son necesarios en el trabajo judicial, para establecer juicios justos. Este escenario provoca reflexiones sobre cómo integrar óptimamente la IA en los procesos judiciales, sin externalizar las funciones de evaluación crítica a las máquinas. Examinaremos algunas propuestas concretas al respecto a continuación.

V.        IA Y SU USO RESPONSABLE EN LA VALORACIÓN PROBATORIA

Autores como Simón Castellano (2021) han señalado precisamente las ventajas prácticas de los sistemas del tipo IA para realizar el análisis de documentos jurídicos (de todo tipo: textual, audiovisual, digital); la IA, en este sentido, es capaz de captar el significado de lo que ha analizado (sin importar el idioma), lo que puede facilitar a los jueces un primer plano de entendimiento que puede ser un primer soporte al análisis interpretativo y evaluativo.

Los puntos que siguen son algunas reflexiones concretas de cómo podría utilizarse la IA de forma responsable para la evaluación de pruebas judiciales, partiendo de un análisis que ahondara en sus capacidades técnicas específicas:

A.         Capacidades técnicas de utilidad de la IA para la evaluación de pruebas

        Ciertamente, ciertas herramientas de IA específicas han obtenido un rendimiento destacable en materia de velocidad en el análisis de grandes cantidades de documentos jurídicos. Excepcionalmente, sobresale de entre estas las herramientas de los modelos generativos de texto como ChatGPT (y, fundamentalmente, su versión GPT-4o) y DeepSeek R1 (es conveniente observar que ambas se van popularizando en el ámbito jurídico dado los resultados que ofrecen, pues tienen características técnicas que las hacen solventes).

        A diferencia de ChatGPT-4o, que también proporciona tiempos de respuesta relativamente consistentes bajo operación normal (cuando se enfrenta a entradas de lenguaje natural estándar), tiende a ser más lento en tareas muy complejas; sin embargo, la virtud de su versatilidad compensa esta desventaja (DataCamp, 2024).

B.         Uso de IA en la clasificación y análisis de pruebas

        Dadas las fortalezas y debilidades aplicables descritas anteriormente, la IA encontraría un uso adaptable en el ámbito judicial, particularmente para mediar en la gestión de procesos a través de la clasificación, síntesis y orden anticipado de la información probatoria, acelerando así el reconocimiento de patrones relevantes en conjuntos documentarios. Sin embargo, su capacidad para contextualizar a un nivel más profundo, así como su incapacidad interna para entender el razonamiento abductivo, significa que aún es bastante limitada en su capacidad para formular hipótesis explicativas cohesivas y originales.

        A continuación, se presentan algunos ejemplos de instrucciones o “prompts” que permiten ilustrar cómo la inteligencia artificial puede asistir y “organizar” el proceso probatorio en el proceso judicial laboral:

Prompt 1: Detección de contradicciones en la prueba documental

“Actuando como analista de documentos, examine cuidadosamente los siguientes elementos de evidencia: [informe policial, mensajes de WhatsApp, transcripciones de declaraciones], e identifique coincidencias y contradicciones que existan sobre [la fecha, lugar y circunstancias en las que ocurrió el despido injustificado]. Datos hasta octubre de 2023: Utilice principios inductivos y deductivos para construir un diagrama de árbol sobre [Análisis de Evidencia] con tres ramas principales, [Fecha], [Lugar], [Circunstancias]. Dibuje flechas para mostrar las contradicciones detectadas. Finalmente, proporcione una breve sinopsis con un enfoque en los fragmentos irregulares y luego recopile los componentes significativos en una tabla de infracciones”.

        Esta indicación sintetiza sistemáticamente tanto el razonamiento inductivo (identificación de patrones repetidos o divergentes) como el razonamiento deductivo (consistencia lógica interna continua), permitiendo la identificación visual de inconsistencias en la evidencia documental y haciendo que sea más fácil y eficiente de revisar.

Prompt 2: Clasificar los medios probatorios según su relevancia

“Como analista experto, prepare un informe estructurado donde clasifique la siguiente prueba (contratos de trabajo, cartas de despido, informes médicos) relacionada con un posible despido discriminatorio por solicitud. Induzca para detectar patrones comunes que sugieran motivación anti-sindical, y deduzca para examinar la coherencia lógica interna de cada documento respecto a los hechos relatados. Estructure sus hallazgos en tres segmentos separados: (1) lo que se ha confirmado sobre hechos específicos establecidos, (2) lo que es indicativo de conexiones causales, y (3) brechas y contradicciones que necesitan ser llenadas, y en cada segmento resalte lo que es ya sea un apoyo o un detractor del concepto central de discriminación sindical.”

        Esta vez, en el segundo ejemplo, también podemos ver que los métodos inductivos y deductivos retoman el papel principal permitiéndonos guiar secuencialmente, de manera estructurada, concisa, eficiente y supervisada, nuestro modelo a través de la correcta clasificación.”

Prompt 3: Identificar factores causales del accidente y presentar la información en un esquema lógico.

“Como especialista en prevención de riesgos, analiza minuciosamente las pruebas aportadas [acta del accidente, informes técnicos, declaraciones de testigos] con el fin de determinar si los indicios directos e indirectos respaldan la hipótesis según la cual el accidente ocurrió debido al [desprendimiento de un barreno]. Utiliza inducción para detectar patrones consistentes entre los diversos documentos y deducción para evaluar la congruencia de cada testimonio o informe con la secuencia fáctica planteada. Expón tus conclusiones en un esquema con tres columnas tituladas: ‘Antecedentes’, ‘Causas presuntas’ y ‘Aspectos no esclarecidos’, destacando especialmente las contradicciones o factores adicionales relevantes que puedan haber contribuido al accidente.”

        La propuesta en cuestión pretende un procedimiento sistemático que asegure un análisis imparcial y metodológico de la IA evitando, con ello, consideraciones especulativas que no van más allá de la actual capacidad de la IA.

Los ejemplos de instrucciones que se ofrecen son plenamente coherentes con los principios que establecen las pautas de uso responsable de la IA en el ámbito judicial; están claramente limitados a funciones de producción de documentos u organización de la información evitando atribuir en ningún caso a la IA funciones de interpretación que pasen de lo que es posible actualmente desde una perspectiva técnica y siempre con la debida consideración de la exigencia de supervisión humana.

VI.        CONSECUENCIAS DEL USO IRRESPONSABLE DE LA IA EN PROCESOS JUDICIALES

En palabras de Castellano (2021), el desarrollo de la inteligencia artificial en relación con el ámbito judicial representa la existencia de tantos peligros como oportunidades (y más específicamente si atendemos al ejercicio de los derechos constitucionales, principios y garantías que habrá que defender a lo largo del período que conlleva el proceso judicial).

En ese sentido, es fundamental garantizar que la supervisión humana en el uso de estas tecnologías no se limite a una mera formalidad teórica. Existen numerosos ejemplos de errores derivados del uso irreflexivo o de la falta de supervisión en herramientas de inteligencia artificial, los cuales han tenido serias implicaciones procesales. A continuación, presentamos tres casos representativos que hemos recopilado:

A)        Caso Mata vs. Avianca (2023): Sanción por precedentes falsos

        En junio de 2023, el juez Kevin Castel, del Tribunal del Distrito Sur de Nueva York, se enfrentó a un caso sin precedentes: los abogados Steven Schwartz y Peter LoDuca, en el marco de una demanda contra la aerolínea Avianca, presentaron seis sentencias inexistentes generadas por ChatGPT (Clarín, 2023; Forbes Argentina, 2023). Además, no verificaron la información en bases de datos legales oficiales, asumiendo erróneamente la validez del material proporcionado por esta herramienta de inteligencia artificial. Posteriormente, Schwartz admitió que nunca había comprendido realmente cómo funcionaba ChatGPT, lo que evidencia la importancia de la supervisión humana en los procedimientos judiciales para evitar la inclusión de información falsa (Latin Counsel, 2023).

B)        Abogado en Florida suspendido por confiar en IA generativa (2024)

        En abril de 2024, un juez del Tribunal del Distrito Medio de Florida impuso a un abogado pena de suspensión temporal de su práctica tras presentar en documentos judiciales jurisprudencia inexistente, producida por IA y sin haber llevado a cabo una revisión previa adecuada. Si bien la identidad de este juez no fue difundida, el caso se planteó también en distintos tribunales para hacer notar la importancia de una adecuada supervisión humana sobre la información producida por herramientas de IA (World Compliance Association, 2023).

C)        Caso en Navarra (2024): Error en la cita de la legislación extranjera en España

        En 2024, en Navarra, se presentó un caso inusual cuando un abogado, al interponer una denuncia, citó por error artículos del Código Penal colombiano como si fueran aplicables en España. Este equívoco se atribuyó a su dependencia de ChatGPT, sin verificar posteriormente la precisión de la información generada por la herramienta (El Confidencial, 2024; Infobae, 2024).

        El letrado reconoció que confió indebidamente en la aplicación sin realizar un control adecuado, lo que llevó al tribunal a abrir una investigación preliminar para evaluar las implicaciones éticas y deontológicas del incidente. Finalmente, el tribunal decidió no sancionarlo, considerando que se trataba de un caso sin precedentes y que el abogado ofreció disculpas de manera inmediata.

        Este episodio puso de manifiesto la importancia de la supervisión humana en el uso de tecnologías generativas, a fin de evitar errores legales que puedan tener repercusiones en los procesos judiciales (Diario de Navarra, 2024; Infobae, 2024).

Si bien los ejemplos expuestos corresponden a situaciones diversas, todas comparten un elemento común: en el contexto del uso del silogismo como técnica de valoración probatoria, la estructura de razonamiento ha resultado deficiente debido a la incorporación de jurisprudencia ficticia o legislación extranjera inaplicable. Estos casos evidencian un problema latente en el uso de la inteligencia artificial: su potencial para generar información inventada, fundamentándose en precedentes inexistentes y omitiendo datos cuando no dispone de información suficiente.

Como señalan García Pérez y Cruz Delgado (2022), un juez nunca puede renunciar a su función interpretativa en favor de un sistema algorítmico, ya que siempre será necesaria una intersección entre la verdad judicial (la opinión del juez) y un análisis crítico, contextualizado y éticamente justificado. En esta línea, Soltau Salazar (2023) advierte sobre las denominadas “alucinaciones” de la inteligencia artificial, es decir, la producción de textos aparentemente coherentes, pero sin un sustento factual real, lo que representa un riesgo significativo en el uso de estas herramientas en el ámbito judicial.

En síntesis, si bien la inteligencia artificial es una herramienta valiosa para optimizar actividades procesales relacionadas con la recopilación, clasificación y organización de información, su utilización no debe interpretarse en ningún caso como una sustitución del juicio interpretativo humano, sino únicamente como un recurso auxiliar. La evaluación probatoria requiere principios morales, sensibilidad y comprensión ética, capacidades que trascienden las posibilidades de cualquier sistema de inteligencia artificial existente. Por lo tanto, la incorporación de tecnologías en el ámbito judicial debe ir acompañada de una supervisión humana rigurosa, a fin de prevenir riesgos graves, como la introducción de pruebas inexistentes o información errónea, que podrían comprometer el derecho fundamental a una tutela judicial efectiva.

VII.        REFLEXIONES Y CONCLUSIONES

Tal como el artículo nos muestra, la inteligencia artificial (IA) constituye una importante ayuda en tareas como la clasificación de documentos judiciales, su organización, etc. Si se opera con el suficiente cuidado en los casos y se supervisa su uso.

Aquí se recogen nuestras reflexiones y conclusiones al respecto:

1.        La introducción de la inteligencia artificial en la valoración de la prueba no puede llegar a sustituir por completo el razonamiento de un juzgador. No estamos hablando de algo irrelevante. Hay que dejar claro que el verdadero valor de la IA reside en ser una herramienta eficaz que la ponga al servicio de la eficiencia y no reemplazar a las funciones personales de los administradores de justicia y/o quienes los ayudan en esta labor.

2.        Además, también se tiene que aceptar que la inteligencia artificial que actualmente se presenta no puede formular nuevas hipótesis en situaciones ambiguas o inciertas. Aunque la información estadística puede estar correlacionada, claramente no hay nada que pueda reemplazar la comprensión contextual humana, aún.

3.        La destacada superioridad técnica que otorga la IA es la velocidad de trabajo, la eficiencia y la rapidez del procesamiento, lo que puede ser usado para la clasificación y la elaboración de resúmenes de volúmenes de documentos. Todo esto sirve para encontrar el camino, especialmente cuando uno tiene que lidiar con montañas de información.

4.        Es imperativo contar con formación especializada en tecnología digital e inteligencia artificial para el personal legal, para que los verdaderos métodos de trabajo, los límites técnicos y el potencial práctico de estos sistemas puedan ser entendidos más fácilmente. Tal conocimiento es vital para evitar los errores en el uso de estas herramientas.

5.        Apoyo que la evaluación de la evidencia es esencialmente una tarea humana que requiere un juicio moral y ético. La inteligencia artificial no debería usurpar los criterios básicos de justicia de los seres humanos en sus sociedades. Por ahora la IA puede funcionar como auxiliar o complemento, siempre bajo rigurosa supervisión por la persona capacitada que la aplique.

        referencias

Cabanillas Hernández, J. C. (2023). El uso de la inteligencia artificial en el proceso laboral peruano: una mirada a su evolución, principios y posible aplicación en nuestro país. En Sociedad Peruana de Derecho del Trabajo y de la Seguridad Social (pp. 135–151).

Clarin. (2023). Estados Unidos: un abogado debió disculparse por presentar antecedentes falsos creados por ChatGPT; podría recibir dura sanción. Clarin. Recuperado de https://www.clarin.com/internacional/unidos-abogado-debio-disculparse-presentar-antecedentes-falsos-creados-chatgpt-podria-recibir-dura-sancion_0_hf500FslVs.html

DataCamp. (2024, 12 de diciembre). Guía OpenAI o1: Cómo funciona, casos de uso, API y más. https://www.datacamp.com/es/blog/open-ai-o1

Diario de Navarra. (2024). ChatGPT se la lía a un abogado y acusa con la ley colombiana en una querella. Diario de Navarra. Recuperado de https://www.diariodenavarra.es/noticias/navarra/2024/11/12/chat-gpt-lia-abogado-acusa-ley-colombiana-628638-300.html

El Confidencial. (2024). Cuidado con la IA, abogado: la ‘pillada’ de un tribunal que ha dado la alerta sobre el uso de ChatGPT. El Confidencial. Recuperado de https://www.elconfidencial.com/juridico/2024-12-17/inteligencia-artificial-abogacia-sancion_4023146/

El País. (2025). Sentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados. El País. Recuperado de https://elpais.com/economia/2025-02-18/sentencias-falsas-leyes-extranjeras-y-filtrado-de-datos-los-riesgos-de-usar-chatgpt-se-cuelan-en-los-despachos-de-abogados.html

Ferrer Beltrán, J. (2021). Manual de razonamiento probatorio. (Referencia incompleta: sin editorial ni lugar de publicación)

Forbes Argentina. (2023). “Alucinaciones de la IA”: Un abogado usó ChatGPT ante la corte y podría ser duramente sancionado. Forbes Argentina. Recuperado de https://www.forbesargentina.com/innovacion/alucinaciones-ia-abogado-uso-chatgpt-corte-cito-casos-falsos-puede-ser-duramente-sancionado-n35098

Iturralde, V. (1991). Sobre el silogismo judicial. Anuario de Filosofía del Derecho, 8, 239–272.

LawDroid Manifesto. (2024, 11 de octubre). Generative AI and the Legal Profession: Breaking the AI Adoption Logjam. Recuperado de https://www.lawdroidmanifesto.com/p/generative-ai-and-the-legal-profession

LawGeex. (2018, febrero). Comparing the performance of artificial intelligence to human lawyers in the review of standard business contracts. Recuperado de https://images.law.com/contrib/content/uploads/documents/397/5408/lawgeex.pdf

Noticias Jurídicas. (2024). Un tribunal rechaza sancionar a un abogado que citó un precepto del Código Penal colombiano por utilizar ChatGPT. Noticias Jurídicas. Recuperado de https://noticias.juridicas.com/actualidad/jurisprudencia/19742-un-tribunal-rechaza-sancionar-a-un-abogado-que-cito-un-precepto-del-codigo-penal-colombiano-por-utilizar-chatgpt/

Plain Concepts. (2025, 3 de febrero). ¿Es DeepSeek R1 adecuado para tu empresa? Recuperado de https://www.plainconcepts.com/es/deepseek-r1/

Rivas Velasco, M. J. (2024). Uso ético de inteligencia artificial en justicia. Magistratura. Recuperado de https://magistratura.es/wp-content/uploads/2024/10/APM-3.9.-MARIA-JOSE-RIVAS-VELASCO.-USO-ETICO-DE-INTELIGENCIA-ARTIFICIAL-EN-JUSTICIA.pdf

Saavedra Vera, C. O., Jáuregui Bustamante, K. del R., & Arista Bustamante, L. L. (2023). La incidencia del sesgo algorítmico en la justicia predictiva del sistema judicial. Revista Tzhoecoen, 15(2), 79–97. https://doi.org/10.26495/tzh.v15i2.2592

Simón Castellano, P. (2021). Inteligencia artificial y valoración de la prueba. THĒMIS-Revista de Derecho, (79), 283–297.

Soltau Salazar, S. (2024). Entre lo posible y lo conveniente: casos de uso de inteligencia artificial en la justicia laboral. Sociedad Peruana de Derecho del Trabajo y de la Seguridad Social. Recuperado de https://www.spdtss.org.pe/wp-content/uploads/2024/11/Sebastian-Soltau-Salazar.pdf

Thomson Reuters. (2024, 15 de octubre). Thomson Reuters Unveils Deeper Integration of CoCounsel 2.0 in Westlaw and Practical Law, Building on Its GenAI Assistant for Legal Professionals. Recuperado de https://www.thomsonreuters.com/en/press-releases/2024/october/thomson-reuters-unveils-deeper-integration-of-cocounsel-2-0-in-westlaw-and-practical-law-building-on-its-genai-assistant-for-legal-professionals

Tribunal Constitucional del Perú. (2002). Sentencia del expediente N.º 976-2001-AA/TC: Eusebio Llanos Huasco contra Telefónica del Perú S.A.A. Recuperado de https://www.tc.gob.pe

Wolfram, S. (2023). What is ChatGPT Doing… and Why Does it Work? Writings. Recuperado de https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

NOTA A LOS EDITORES:

Se informa que, en el desarrollo del presente artículo, he empleado inteligencia artificial generativa para la elaboración de las gráficas ilustrativas del razonamiento deductivo, inductivo y abductivo, así como para la estructuración de los ejemplos de prompts; sin embargo, destaco que las ideas expuestas son de mi autoría y asumo plena responsabilidad por el contenido.

 


[1]         Aunque técnicas de prompting pueden utilizarse también para generar premisas mayores, tales como identificar precedentes legales o interpretar normas confusas, en el análisis del presente artículo se analiza su potencial aplicación en la valoración probatoria – especialmente, por una razón de espacio -