Alucinaciones de IA en el sector legal: qué son, con qué frecuencia ocurren y cómo protegerte
Descubre qué son las alucinaciones de IA en el sector legal, su frecuencia y cómo proteger tu firma de errores costosos.

Alucinaciones de IA en el sector legal: qué son, con qué frecuencia ocurren y cómo protegerte
En febrero de 2026, el Tribunal Superior de Justicia de Canarias sancionó a un abogado por citar jurisprudencia inexistente en un escrito judicial. Las sentencias las había generado una IA generalista, y nadie las verificó. Pocas semanas después, un juez de Ceuta fue denunciado por incluir supuestas resoluciones del Tribunal Supremo que tampoco existían.
No son casos aislados. La base de datos pública de Damien Charlotin (profesor en HEC París que rastrea este tipo de incidentes a nivel mundial) contabiliza ya más de 190 casos documentados, y más del 30% corresponde al último trimestre.
Si tu firma ha empezado a integrar IA en procesos legales (o si los profesionales están usándola por su cuenta), este es el punto que no se puede ignorar.
Qué es una alucinación de IA y por qué ocurre
Los modelos de lenguaje grandes (ChatGPT, Gemini, Claude y similares) no buscan información. Predicen la siguiente palabra más probable según el contexto. Cuando no tienen la respuesta exacta, no admiten el vacío. Construyen una respuesta plausible, con cita, número de sentencia y fecha incluidos. Ese output fabricado es una alucinación.
El problema es que no suena a error. El texto es articulado, extenso y aparentemente bien fundamentado. Un ex-ejecutivo de Google, Amr Awadallah, lo describió como "competencia simulada". Para un abogado, detectar una alucinación no es identificar un fallo obvio. Es identificar un argumento bien redactado que resulta ser falso.
Cuanto más compleja o específica es la consulta, mayor es la probabilidad de alucinación. El modelo tiende a completar huecos con material inventado antes que admitir que no sabe.
Con qué frecuencia ocurren estos errores
El estudio más riguroso sobre este tema lo publicaron investigadores del RegLab y el Human-Centered AI de Stanford en el Journal of Empirical Legal Studies en 2025. Los datos son incómodos y vale la pena verlos con claridad.
- Las herramientas generalistas (ChatGPT, Claude, Llama) alucinan entre el 58% y el 82% en consultas legales cuando se usan sin contexto adicional.
- Las herramientas de IA legal específicas con tecnología RAG, que ancla el modelo a bases jurídicas reales, reducen ese porcentaje, pero no lo eliminan.
- Lexis+ AI falla en más del 17% de las consultas.
- Westlaw AI-Assisted Research lo hace aproximadamente en el 33%.
El informe ACEDS + Secretariat 2025 refleja que el 31% de los profesionales legales cita las alucinaciones como barrera principal para adoptar IA. No es una percepción paranoica, es una respuesta informada a lo que se ve en el día a día.
Por qué también fallan las herramientas "legales especializadas"
Una creencia extendida es que si una herramienta está construida "para abogados" y se apoya en una base de datos profesional, el problema desaparece. Los datos de Stanford desmontan esa idea.
RAG (retrieval-augmented generation) es una mejora real. Obliga al modelo a apoyar sus respuestas en documentos recuperados de una base jurídica. Pero el modelo sigue siendo un modelo de lenguaje, y puede malinterpretar lo que recupera, mezclar fuentes, omitir matices o reformular con un sesgo que cambia el sentido de una sentencia.
El marketing de algunos proveedores no ha ayudado. Hace no tanto, uno de los grandes actores del mercado afirmaba que su producto entregaba "citas legales vinculadas 100% libres de alucinaciones". Tras el estudio de Stanford, matizó públicamente ese lenguaje. La conclusión operativa para un directivo legal es sencilla. Las herramientas especializadas son mejores que las generalistas, y merecen estar en el stack tecnológico de la firma. Pero no eliminan la necesidad de verificación humana.
Quién responde cuando la IA se equivoca
En España, la responsabilidad recae siempre sobre el profesional que firma el escrito.
La Ley Orgánica 5/2024 del Derecho de Defensa y el Código Deontológico de la Abogacía Española son claros. El deber de veracidad, la buena fe procesal y la diligencia profesional son obligaciones personales del abogado. Usar una herramienta tecnológica no las diluye, las refuerza.
El Código Deontológico incluso tipifica un concepto aplicable a este escenario, la "presión exterior". Cuando un sistema de IA genera un análisis bien estructurado, la tentación de firmarlo sin cuestionarlo crece. El Código lo prohíbe expresamente. El criterio profesional tiene que mantenerse activo, no delegado.
La Instrucción 2/2026 del CGPJ, aunque dirigida a jueces, traslada el mismo principio. Control humano efectivo, no sustitución del criterio profesional, y exigencia de que el output de la IA no condicione la libertad de valoración.
Las sanciones ya están llegando. En España hablamos de multas que pueden alcanzar los 6.000 euros según el Código Deontológico, más sanciones colegiales y daño reputacional. En Estados Unidos se han visto multas individuales de hasta 10.000 dólares y la descalificación de equipos completos por citas inventadas por IA.
Cinco medidas que toda firma legal debería tener
La supervisión humana no es un parche que se añade al final. Es parte del diseño del proceso. Estos son los puntos mínimos que debería cubrir cualquier firma que use IA en trabajo jurídico.
1. Política interna de uso de IA
Un documento breve que defina qué herramientas están autorizadas, para qué tareas, con qué datos y bajo qué responsable. Sin política escrita, cada profesional improvisa. La improvisación es lo que produce los titulares judiciales.
2. Prohibición de uso directo en escritos
El output de una IA nunca debería copiarse a un escrito, dictamen o recurso sin verificación línea a línea. Las citas jurisprudenciales, en particular, tienen que cotejarse en fuente primaria (Cendoj, boletines oficiales, bases de datos de confianza).
3. Elección consciente de la herramienta
No es lo mismo usar una IA generalista que una herramienta de IA específica del sector legal con RAG sobre bases jurídicas validadas. La diferencia en tasa de error es significativa. Cuando evalúes opciones, pregunta al proveedor por:
- Tasa de alucinación documentada en pruebas independientes.
- Fuentes jurídicas sobre las que se apoya el modelo.
- Mecanismos de trazabilidad (si puedes ver de dónde viene cada cita).
- Protocolos de actualización cuando cambia la normativa.
4. Registro y trazabilidad
Guardar los prompts y las respuestas permite reconstruir lo ocurrido si aparece un error. Es útil para mejorar procesos internamente y, llegado el caso, para acreditar diligencia frente a un colegio profesional o un tribunal.
5. Formación del equipo
Menos del 50% de los profesionales legales recibe formación adecuada en IA, según Litify. El problema no es técnico, es operativo. Un equipo que entiende cómo y por qué falla un modelo comete menos errores que uno que asume que la herramienta "ya está validada".
La conclusión operativa
Las alucinaciones existen y no van a desaparecer pronto. Renunciar a la IA tampoco es la respuesta, porque la ventaja operativa de usarla bien es real y medible.
La diferencia entre las firmas que adoptan esta tecnología con éxito y las que terminan en un titular está en una línea. Las primeras entienden que la IA amplifica el trabajo del abogado, no lo sustituye. El criterio, la firma y la responsabilidad siguen siendo humanos.
Si tu firma está planteando cómo integrar IA en procesos legales con las garantías adecuadas (política interna, elección de herramientas, supervisión humana diseñada desde el inicio), en Artekia llevamos tiempo trabajando en este tipo de soluciones. Si quieres explorar qué tiene sentido para tu caso, podemos tener una conversación de 30 minutos.
Fuentes
- ACEDS + Secretariat AI in Law Report 2025.
- Litify State of AI Report 2025.
- Magesh, Surani, Dahl et al. "Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools." Journal of Empirical Legal Studies, 2025.
- Damien Charlotin, "AI Hallucination Cases Database".
- Abogacía Española, "La alucinación legal que no cesa".
- Economist & Jurist, "Deontología y ética profesional del abogado ante el uso de la IA", marzo 2026.
- Código Deontológico de la Abogacía Española.
- Ley Orgánica 5/2024 del Derecho de Defensa.
- Instrucción 2/2026 del CGPJ.