30/01/2026 · BOE-A-2026-2205
El Consejo General del Poder Judicial aprueba un marco pionero para regular el uso de la inteligencia artificial en los tribunales
La Instrucción 2/2026 establece por primera vez criterios y límites al uso de herramientas de IA por jueces y magistrados, subrayando el control humano y la responsabilidad judicial exclusiva.
En un movimiento destinado a moldear el futuro de la justicia en la era digital, el Pleno del Consejo General del Poder Judicial (CGPJ) aprobó el 28 de enero de 2026 una instrucción histórica que regula el uso de sistemas de inteligencia artificial en la actividad jurisdiccional. La Instrucción 2/2026, publicada en el Boletín Oficial del Estado el 30 de enero, pretende ser la piedra angular para integrar estas tecnologías en los juzgados y tribunales españoles, combinando la promesa de eficiencia con garantías estrictas para preservar los derechos fundamentales y la esencia misma de la función judicial.
El documento, de carácter interno y dirigido a todos los jueces y magistrados, nace en un contexto normativo complejo. Su desarrollo se enmarca en la aplicación del Reglamento Europeo de Inteligencia Artificial (UE 2024/1689), que cataloga como de "alto riesgo" los sistemas utilizados por autoridades judiciales. A nivel nacional, se alinea con la futura Ley para el buen uso y la gobernanza de la IA y con políticas preexistentes como la aprobada por el Comité Técnico Estatal de la Administración Judicial Electrónica en junio de 2024.
El núcleo de la instrucción lo constituyen una serie de principios irrenunciables. Entre ellos, destaca el de "control humano efectivo", que somete cualquier uso de la IA a la supervisión consciente del juez. Le acompañan el principio de "no sustitución", que veta explícitamente que un sistema automatice decisiones judiciales o la valoración de pruebas, y el de "responsabilidad judicial exclusiva", que deja claro que el juez es el único responsable de sus resoluciones, con independencia del apoyo tecnológico utilizado. Otros principios clave son el respeto a los derechos fundamentales, la prevención de sesgos algorítmicos y la confidencialidad de los datos.
La instrucción es particularmente restrictiva con los sistemas permitidos. Los jueces solo podrán utilizar herramientas de IA, incluidas las de generación de contenido (como modelos de lenguaje), que les sean facilitadas oficialmente por las Administraciones competentes en justicia o por el propio CGPJ. Queda prohibido el uso de aplicaciones públicas o comerciales no autorizadas para tratar datos judiciales o personales. No obstante, se permite un uso limitado de estas herramientas de acceso público para tareas de estudio o preparación, siempre que se utilice exclusivamente información de fuentes abiertas.
Los usos concretos autorizados se circunscriben a funciones de apoyo y asistencia. La IA podrá emplearse para la búsqueda de jurisprudencia y doctrina, el análisis y clasificación de documentos de autos, o la elaboración de esquemas y borradores de trabajo interno. Respecto a la generación de borradores de sentencias –uno de los usos más sensibles y ya en prueba en algunos juzgados– la instrucción es taxativa: el borrador generado no constituye una decisión automatizada y requiere una "revisión y validación personal, completa y crítica" por parte del juez, quien mantiene la plena responsabilidad sobre el texto final.
En el lado opuesto, la norma enumera una lista de usos prohibidos. Entre ellos figuran la sustitución en la toma de decisiones o la interpretación del Derecho, la utilización de resultados que condicionen la independencia judicial, o el empleo de la IA para perfilado de personas o evaluación de riesgos fuera de los casos expresamente previstos por la ley. El incumplimiento de estas pautas podrá acarrear responsabilidades para el juez, conforme a la Ley Orgánica del Poder Judicial.
Expertos consultados señalan que esta regulación sitúa a España a la vanguardia de la gobernanza ética de la IA en la justicia en Europa. Sin embargo, también plantean desafíos. La dependencia de sistemas autorizados centralmente podría ralentizar la adopción de innovaciones y plantea dudas sobre la capacidad de supervisión técnica del CGPJ. Además, la efectividad de los principios para prevenir sesgos algorítmicos dependerá en gran medida de la transparencia y de las auditorías de los sistemas proporcionados, una tarea que recae sobre la recién designada Dirección de Supervisión y Control de Protección de Datos del CGPJ.
La instrucción llega en un momento de transformación digital acelerada de la justicia y pretende ser un faro que guíe una integración segura y confiable de la tecnología. Su éxito se medirá no solo por la seguridad que aporte, sino por su capacidad para no convertirse en un corsé que ahogue el potencial de estas herramientas para agilizar una administración de justicia a menudo sobrecargada.