Modelos de lenguaje, alucinaciones, verificación de fuentes — la base que todo abogado necesita.
Un modelo de lenguaje grande (LLM, Large Language Model) es un sistema de inteligencia artificial entrenado con miles de millones de textos: libros, artículos, páginas web, documentos legales. No «piensa» ni «entiende» en el sentido humano: genera la palabra más probable dado el contexto anterior, usando patrones estadísticos aprendidos durante el entrenamiento.
Esto explica por qué los LLM son brillantes para tareas de lenguaje (resumir, reformular, clasificar) pero no son bases de datos ni motores de búsqueda.
Una alucinación ocurre cuando un LLM genera información que parece real pero es inventada. En el contexto legal, esto es especialmente peligroso:
| Tipo de alucinación | Ejemplo |
|---|---|
| Sentencia inventada | «STS 3456/2022, Sala 1ª, de 15 de marzo»: el número existe pero con otra materia |
| Artículo alterado | «El art. 56 ET establece una indemnización de 45 días/año»: era así antes de 2012 |
| Doctrina fabricada | «Según Díez-Picazo en su Tratado de...»: la cita no existe en esa obra |
| Plazos incorrectos | «El plazo de prescripción es de 5 años según el CC»: puede ser 1 año para acciones extracontractuales |
En junio de 2023, un abogado en Nueva York presentó un escrito con 6 sentencias fabricadas por ChatGPT. Los hechos:
Lección clave: Pedir al modelo que «confirme» una cita no sirve. Puede confirmar con total convicción algo que él mismo inventó.
Regla de oro: Toda cita generada por IA debe verificarse contra la fuente original antes de usarla en cualquier documento profesional.
| Aspecto | ChatGPT / LLM genérico | Herramienta legal especializada |
|---|---|---|
| Corpus | Entrenamiento general | Corpus jurídico verificado (BOE, CENDOJ) |
| Citas | Puede inventarlas | Enlaza a fuentes reales |
| Actualización | Fecha de corte fija | Corpus actualizado periódicamente |
| Confianza | Sin indicador | Nivel de confianza en cada respuesta |
| Privacidad | Tus datos pueden entrenar el modelo | Datos procesados en infraestructura privada |
| Responsabilidad | Sin garantías profesionales | Diseñada para el cumplimiento normativo |
La IA generativa es una herramienta de productividad, no un sustituto del abogado. Piensa en ella como un pasante muy rápido pero que a veces se inventa cosas: necesita supervisión.
| Concepto | Definición |
|---|---|
| LLM | Modelo que predice la siguiente palabra basándose en patrones estadísticos |
| Alucinación | Información generada que parece real pero es inventada |
| RAG | Retrieval-Augmented Generation: técnica que conecta el LLM a fuentes verificadas |
| Verificación | Comprobar TODA cita contra la fuente original antes de usarla |
| Herramienta legal | Software que combina IA con corpus jurídico verificado y cumplimiento normativo |
Vídeo próximamente
Por ahora puedes leer el contenido escrito más abajo
¿Qué es una "alucinación" en el contexto de la IA legal?
¿Cuál es la "regla de oro" al usar citas generadas por IA?
¿Qué diferencia principal tiene una herramienta legal especializada frente a ChatGPT?
Un LLM genera la respuesta...
¿Qué consecuencia tuvo el caso del abogado que presentó sentencias fabricadas por ChatGPT?
¿Tienes dudas legales propias?
El Plan Particular te da 50 consultas al mes con respuestas verificadas del BOE y la jurisprudencia.