Skip to main content
Prueba Lexiel gratisProbar ahora →
25 minAdrián

Fundamentos de IA en el ejercicio legal

Modelos de lenguaje, alucinaciones, verificación de fuentes — la base que todo abogado necesita.

¿Qué es un modelo de lenguaje?

Un modelo de lenguaje grande (LLM, Large Language Model) es un sistema de inteligencia artificial entrenado con miles de millones de textos: libros, artículos, páginas web, documentos legales. No «piensa» ni «entiende» en el sentido humano: genera la palabra más probable dado el contexto anterior, usando patrones estadísticos aprendidos durante el entrenamiento.

Cómo funciona (simplificado)

  1. Recibe tu texto (el «prompt»): «¿Cuál es el plazo para reclamar una indemnización por despido?»
  2. Busca patrones: en los textos con los que fue entrenado, ha visto miles de veces patrones como «el plazo para... es de 20 días hábiles según el artículo...»
  3. Genera palabra a palabra: elige la siguiente palabra más probable, y luego la siguiente, y así sucesivamente.

Esto explica por qué los LLM son brillantes para tareas de lenguaje (resumir, reformular, clasificar) pero no son bases de datos ni motores de búsqueda.

Lo que SÍ hace bien un LLM

  • Resumir textos largos: puede condensar una sentencia de 40 páginas en un resumen ejecutivo de 2 párrafos.
  • Generar borradores de escritos: produce un primer borrador de demanda, contestación o recurso que puedes revisar y perfeccionar.
  • Responder preguntas sobre documentos: si le proporcionas un contrato de 80 páginas, puede localizar cláusulas relevantes.
  • Buscar patrones en jurisprudencia: identifica tendencias en sentencias sobre un tema concreto.
  • Traducir y adaptar: convierte textos legales entre idiomas o niveles de complejidad.

Lo que NO hace bien

  • Inventar sentencias: puede fabricar referencias con número de recurso y fecha que no existen (esto se llama «alucinación»).
  • Garantizar precisión: un LLM siempre genera su «mejor predicción», no la verdad comprobada.
  • Sustituir criterio profesional: la IA es una herramienta, no un abogado.
  • Aplicar derecho vigente si fue entrenado con datos antiguos: los modelos tienen una «fecha de corte» de entrenamiento.

¿Qué es una alucinación?

Una alucinación ocurre cuando un LLM genera información que parece real pero es inventada. En el contexto legal, esto es especialmente peligroso:

Tipo de alucinaciónEjemplo
Sentencia inventada«STS 3456/2022, Sala 1ª, de 15 de marzo»: el número existe pero con otra materia
Artículo alterado«El art. 56 ET establece una indemnización de 45 días/año»: era así antes de 2012
Doctrina fabricada«Según Díez-Picazo en su Tratado de...»: la cita no existe en esa obra
Plazos incorrectos«El plazo de prescripción es de 5 años según el CC»: puede ser 1 año para acciones extracontractuales

El caso Mata v. Avianca (2023)

En junio de 2023, un abogado en Nueva York presentó un escrito con 6 sentencias fabricadas por ChatGPT. Los hechos:

  1. El abogado usó ChatGPT para buscar jurisprudencia relevante.
  2. ChatGPT generó 6 sentencias con números de caso, partes, tribunales y fechas.
  3. Ninguna de las 6 sentencias existía.
  4. El abogado le pidió a ChatGPT que «confirmara» las citas. ChatGPT confirmó su propia alucinación.
  5. El tribunal descubrió la fabricación y multó al abogado con $5.000.
  6. El caso se convirtió en referencia mundial sobre los riesgos de la IA sin verificación.

Lección clave: Pedir al modelo que «confirme» una cita no sirve. Puede confirmar con total convicción algo que él mismo inventó.


Verificación de fuentes: el estándar mínimo

Regla de oro: Toda cita generada por IA debe verificarse contra la fuente original antes de usarla en cualquier documento profesional.

Protocolo de verificación en 4 pasos

  1. Identifica la fuente citada: ¿es una sentencia, un artículo de ley, un informe?
  2. Busca en la fuente oficial: CENDOJ para sentencias, BOE para legislación, bases de datos oficiales.
  3. Comprueba que el contenido coincide: no solo que el número de sentencia exista, sino que dice lo que la IA afirma.
  4. Documenta la verificación: anota dónde comprobaste cada cita.

ChatGPT vs herramientas legales especializadas

AspectoChatGPT / LLM genéricoHerramienta legal especializada
CorpusEntrenamiento generalCorpus jurídico verificado (BOE, CENDOJ)
CitasPuede inventarlasEnlaza a fuentes reales
ActualizaciónFecha de corte fijaCorpus actualizado periódicamente
ConfianzaSin indicadorNivel de confianza en cada respuesta
PrivacidadTus datos pueden entrenar el modeloDatos procesados en infraestructura privada
ResponsabilidadSin garantías profesionalesDiseñada para el cumplimiento normativo

La IA como herramienta, no como sustituto

La IA generativa es una herramienta de productividad, no un sustituto del abogado. Piensa en ella como un pasante muy rápido pero que a veces se inventa cosas: necesita supervisión.

Flujo de trabajo recomendado

  1. Usa la IA para el primer borrador: deja que genere un esquema o borrador inicial.
  2. Revisa críticamente: lee todo como si fuera de un pasante: cuestiona cada afirmación.
  3. Verifica citas: comprueba TODAS las referencias contra fuentes oficiales.
  4. Aplica tu criterio: la IA no conoce las circunstancias específicas de tu caso ni tu estrategia procesal.
  5. Firma como tuyo: si tu nombre va en el escrito, la responsabilidad es tuya.

Estadísticas relevantes

  • El 64,7% de los abogados españoles no han recibido formación sobre IA (Encuesta CGAE 2025).
  • El 78% de los despachos que adoptan IA reportan ahorro de tiempo en tareas rutinarias.
  • El 12% de los abogados que usan IA genérica han incluido información no verificada en escritos.
  • Solo el 3% de los despachos tienen un protocolo formal de uso de IA.

Resumen del módulo

ConceptoDefinición
LLMModelo que predice la siguiente palabra basándose en patrones estadísticos
AlucinaciónInformación generada que parece real pero es inventada
RAGRetrieval-Augmented Generation: técnica que conecta el LLM a fuentes verificadas
VerificaciónComprobar TODA cita contra la fuente original antes de usarla
Herramienta legalSoftware que combina IA con corpus jurídico verificado y cumplimiento normativo

Vídeo próximamente

Por ahora puedes leer el contenido escrito más abajo

Evaluación del módulo

1

¿Qué es una "alucinación" en el contexto de la IA legal?

2

¿Cuál es la "regla de oro" al usar citas generadas por IA?

3

¿Qué diferencia principal tiene una herramienta legal especializada frente a ChatGPT?

4

Un LLM genera la respuesta...

5

¿Qué consecuencia tuvo el caso del abogado que presentó sentencias fabricadas por ChatGPT?

¿Tienes dudas legales propias?

El Plan Particular te da 50 consultas al mes con respuestas verificadas del BOE y la jurisprudencia.

Probar 14 días gratis