¿Serán los jueces reemplazados por la inteligencia artificial?
No es lo mismo que el juez dicte su sentencia, amparado únicamente en su personal criterio profesional, que hacerlo tras utilizar una herramienta de inteligencia artificial que posee un determinado sesgo algorítmico.
Lo que desde hace algún tiempo era una sospecha, hoy es una certeza para todos: los jueces dictan sus sentencias empleando la Inteligencia Artificial.
La sospecha venía del Real Decreto-ley 6/2023, de 19 de diciembre, por el que se aprueban medidas urgentes para la ejecución del Plan de Recuperación, Transformación y Resiliencia en materia de servicio público de justicia.
El art. 35. 1 de tal Real Decreto-ley menciona expresamente la utilización de la IA "como instrumento de apoyo para fines jurisdiccionales y organizativos".
Sin embargo, es su art. 57 el que regula las llamadas "actuaciones asistidas" que son aquellas en las que "el sistema de información de la Administración de Justicia genera un borrador total o parcial de documento complejo basado en datos, que puede ser producido por algoritmos y puede constituir fundamento o apoyo de una resolución judicial o procesal".
Bien es verdad que el mismo precepto en su párrafo 2 añade que "en ningún caso el borrador documental así generado constituirá por sí una resolución judicial o procesal, sin validación de la autoridad competente".
Ahora, desde hace pocas semanas, tenemos la Instrucción 2/2026, aprobada por el Pleno del CGPJ el pasado 28 de enero, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional.
Por tanto, ya no hay dudas sobre que los jueces emplean la IA para dictar sus sentencias. En todo caso, la duda estriba sobre cuál es el porcentaje de su resolución que ha sido influido o elaborado por la herramienta de la IA.
La Instrucción del CGPJ se refiere a dos tipos de asuntos: la protección de datos de las personas involucradas en los procesos judiciales y la elaboración de sentencias y otras resoluciones utilizando la IA.
Para evitar que los datos personales de los afectados alimenten los sistemas de IA, respecto de la tramitación y la resolución de los asuntos, el art. 4 de la Instrucción establece nueve principios de utilización de los sistemas de IA en el ejercicio de la actividad jurisdiccional:
- Principio de control humano efectivo.
- Principio de no sustitución de los jueces y magistrados.
- Principio de responsabilidad judicial.
- Principio de independencia judicial.
- Principio de respeto a los derechos fundamentales.
- Principio de confidencialidad y seguridad.
- Principio de prevención de riesgos algorítmicos.
- Principio de proporcionalidad y uso limitado, y
- Principio de formación y capacitación.
Estos principios se podrían resumir en unas pocas ideas:
-El juez no puede ser sustituido totalmente por la IA a la hora de dictar sus resoluciones.
-El juez es el único responsable de sus sentencias.
-El juez debe evitar la contaminación de sus sentencias por el sesgo algorítmico que se deriva del uso de la IA, y
-El juez, como no podría ser de otra manera, debe mantener su independencia y respetar los derechos fundamentales.
Esta situación genera un panorama inquietante.
"De acuerdo con el derecho a la tutela judicial efectiva, los ciudadanos tienen derecho a saber en qué porcentaje ha influido la IA en la elaboración de la sentencia que resuelve sus asuntos·
No es lo mismo que el juez dicte su sentencia, amparado únicamente en su personal criterio profesional, que hacerlo tras utilizar una herramienta de IA que posee un determinado sesgo algorítmico.
El art. 6 de la Instrucción prohíbe a los jueces emplear sistemas de IA, incluidas herramientas de IA generativa, distintos de los suministrados por las Administraciones competentes en materia de justicia y el CGPJ, precisamente para evitar los sesgos de las herramientas de IA privadas.
Pero ¿quién nos asegura que tales herramientas facilitadas por las Administraciones o incluso el CGPJ no poseen también su propio sesgo algorítmico?
Pensemos, por ejemplo, en una herramienta de IA utilizada por los jueces de lo contencioso-administrativo que ha sido proveída por la misma Administración contra la que pleitea cualquier ciudadano.
O en una causa penal contra un funcionario o alto cargo de tal Administración cuyo sistema de IA depende, en cuanto a su control o manejo, de personas subordinadas directa o indirectamente a dicho funcionario o cargo.
De acuerdo con el principio de transparencia, y sobre todo con el derecho fundamental a la tutela judicial efectiva, los ciudadanos tienen derecho a saber en qué porcentaje ha influido la IA en la elaboración de la sentencia que resuelve sus asuntos.
El recurso de aclaración, regulado entre otros preceptos, por el art. 267 LOPJ, en mi opinión, pudiera servir a las partes para tener mayor luz sobre cuál ha sido, en su caso, el borrador de resolución dictada en el asunto que les atañe. Y las razones por las cuales el juez o el magistrado se ha separado (o no) del criterio contenido en el borrador elaborado por la IA.
Bien mirado, la utilización de un único sistema de IA jurisdiccional para enjuiciar todos los asuntos pudiera tener también (junto a los inconvenientes que ya he señalado) algunas ventajas:
Una es que podría favorecer la uniformidad de la doctrina judicial con carácter previo al dictado de la primera sentencia de instancia.
"¿Se convertirá la IA, en la práctica, en una fuente del Derecho o en una forma transversal de legislar?
Si todos los jueces empleasen la misma herramienta de IA, ante asuntos semejantes, obtendrían borradores de sentencia muy similares.
Por lo cual, las posibilidades de coincidencia entre juzgados de distintos lugares sería mayor, incluso, como digo, en las primeras instancias, ahorrándonos múltiples recursos cuyo fin sea la unificación de doctrina o jurisprudencia.
Otra, que si esa herramienta de IA no fuese exclusiva de los jueces y fuera compartida con abogados, fiscales y procuradores la seguridad jurídica sería mayor para todos. El abogado podría trasmitir más certidumbre respecto del triunfo de las pretensiones de su cliente, incluso antes de iniciar el pleito.
Desengáñense, el cambio de paradigma es tan descomunal que todavía hay muchos que no se han apercibido de las consecuencias que va a tener todo esto.
Ortega escribió que "el hombre desde que nace busca la seguridad". No mencionó expresamente la libertad ni la justicia.
Seguridad y economía de esfuerzos: el éxito del sistema está garantizado.
A medio plazo van a cambiar algunas cosas a las que estábamos acostumbrados. Si la función del juez va a ser, en muchos casos, validar y responsabilizarse de los proyectos de sentencia que elaboren los sistemas de IA, ¿qué tipo de proceso de oposición es el más adecuado para seleccionar a quienes desempeñen funciones jurisdiccionales?
Si la memorización de leyes, doctrina y jurisprudencia puede ser suplida en cuestión de segundos por los sistemas de IA con mayor precisión y exhaustividad que cualquier persona humana, ¿qué tipo de formación debemos procurar en las universidades a los presentes y futuros estudiantes de Derecho?
¿Se convertirá la IA, en la práctica, en una fuente del Derecho o en una forma transversal de legislar?