Ir al contenido
Volver al blog
Agentes de IA
5 min de lecturaPor Artekia

Shadow AI. La IA que no controlas.

El shadow AI amenaza la confidencialidad en despachos legales. Descubre los riesgos reales y cómo implementar una estrategia de IA segura y controlada.

shadow ai riesgos despachos abogadosinteligencia artificial legalia en bufetes abogadosriesgos shadow aiseguridad datos legalia sin supervisión despachoscumplimiento normativo iaconfidencialidad cliente iaherramientas ia legal ChatGPT Copilot Geminiestrategia ia despachos abogados
Imagen de portada del artículo

Shadow AI en despachos de abogados: riesgos reales y cómo responder

Hay un fenómeno que está ocurriendo dentro de la mayoría de los despachos de abogados y que muy pocos directivos tienen en el radar. Sus profesionales ya usan inteligencia artificial. No la que la firma ha evaluado, aprobado o supervisado. La que cada persona ha encontrado por su cuenta.

Según el informe Future Ready Lawyer 2026 de Wolters Kluwer, el 92% de los profesionales legales utiliza ya al menos una herramienta de IA en su trabajo diario. Sin embargo, según Thomson Reuters, solo el 22% de las organizaciones tiene una estrategia de IA definida. El resto opera sin visibilidad sobre qué herramientas se usan, qué datos se introducen en ellas o qué riesgos asumen.

Este gap entre adopción individual y gobierno organizacional es lo que en el mundo tecnológico se conoce como shadow AI. Y en un sector donde la confidencialidad del cliente es una obligación profesional, no una preferencia, las consecuencias pueden ser graves.

El alcance del problema

Los datos de Litify muestran que el 66% de los profesionales legales usa ChatGPT, el 42% Microsoft Copilot y el 24% Google Gemini. Son herramientas generalistas, no diseñadas para el sector legal, y en la mayoría de los casos se usan sin que el despacho tenga control sobre la información que entra o sale de ellas.

Un estudio de ACC y Everlaw con 657 profesionales in-house de 30 países reveló que el 59% de los equipos jurídicos internos no sabe si sus firmas externas están usando IA generativa en sus asuntos. Y aquí está la parte más reveladora: el 58% de la adopción está siendo impulsada por los propios equipos in-house, mientras que solo el 1% es liderada por los despachos externos.

Los clientes se están adelantando. Y están empezando a exigir transparencia.

Riesgos documentados, no hipotéticos

Existen más de 600 casos registrados de alucinaciones de IA en contextos legales, según Corporate Compliance Insights, implicando a 128 abogados. El caso Mata v. Avianca, en el que un abogado presentó seis casos judiciales inventados por ChatGPT ante un tribunal federal de Nueva York, es el más conocido. Pero no el único. En Johnson v. Dunn, un tribunal de Alabama descalificó a una firma completa y remitió a los abogados a los colegios profesionales de todas sus jurisdicciones.

Los tribunales han sido claros en un punto: la responsabilidad recae sobre el abogado, no sobre la herramienta.

Más allá de las alucinaciones, el riesgo de fuga de datos es igual de serio. Cuando un profesional introduce información confidencial de un cliente en una herramienta de IA pública, esos datos pueden acabar en servidores fuera de cualquier control corporativo. Según el 8am Legal Industry Report 2026, el 46% de los profesionales cita la seguridad de datos como barrera y el 39% menciona específicamente el riesgo para el privilegio profesional.

Por qué prohibir no resuelve nada

Muchos despachos han respondido con prohibiciones internas. La evidencia muestra que no funcionan. Lo que consiguen no es eliminar el uso, sino hacerlo invisible.

El análisis de Wolters Kluwer en su webinar Future Ready Lawyer 2026 apunta en una dirección diferente: la forma más efectiva de reducir el shadow AI no es una política más estricta, sino un mejor diseño. Cuando las herramientas aprobadas y seguras están integradas directamente en los flujos de trabajo del despacho, el incentivo para recurrir a herramientas externas cae de forma significativa.

El coste de no tener estrategia

Los datos de Thomson Reuters son contundentes. Las organizaciones con una estrategia de IA definida tienen el doble de probabilidades de ver crecimiento de ingresos vinculado a la IA y son 3,5 veces más propensas a obtener beneficios significativos, en comparación con las que no tienen un plan claro.

El 64% de los equipos jurídicos in-house espera depender menos de firmas externas gracias a la IA, según ACC y Everlaw. Eso significa que los clientes están construyendo capacidades propias y empezando a tomar decisiones sobre qué firmas contratar en función de su grado de madurez tecnológica y su transparencia.

Pasos concretos para actuar

No se necesita un documento de 40 páginas para empezar. Basta con responder estas preguntas:

  • ¿Qué herramientas de IA están usando los profesionales del despacho, con o sin aprobación?
  • ¿Qué datos de clientes podrían estar entrando en herramientas no controladas?
  • ¿Existe una política interna que defina qué está permitido y qué no?
  • ¿Se han evaluado herramientas de IA específicas del sector legal que cumplan con requisitos de confidencialidad y RGPD?
  • ¿Los clientes saben si la firma usa IA en sus asuntos?

El primer paso es una auditoría informal. Preguntar a los equipos, sin juicio, qué herramientas usan y para qué. A partir de ahí, definir una política mínima viable y evaluar alternativas seguras.

La brecha entre uso individual y estrategia organizacional no se cierra sola. Pero identificarla es la condición necesaria para empezar a gestionarla.


Fuentes:

  • Wolters Kluwer, Future Ready Lawyer 2026 — 92% de profesionales legales usa al menos una herramienta de IA.
  • Thomson Reuters, 2025 Future of Professionals Report — Solo el 22% tiene estrategia de IA; 2x ingresos; 3,5x beneficios.
  • Litify, State of AI Report 2025 — 66% ChatGPT, 42% Copilot, 24% Gemini.
  • ACC / Everlaw, GenAI's Growing Strategic Value 2025 — 59% de equipos in-house no sabe si sus firmas usan IA; 64% espera depender menos de firmas externas.
  • 8am Legal Industry Report 2026 — 46% seguridad de datos; 39% privilegio profesional.
  • Corporate Compliance Insights — Más de 600 casos de alucinaciones, 128 abogados implicados.
  • Wolters Kluwer, Future Ready Lawyer 2026 Webinar — Diseño de herramientas seguras vs. prohibiciones.