Abogado de Anthropic se disculpa por cita falsa de su IA Claude

Anthropic admitió que su IA Claude generó una cita legal errónea en un caso judicial, lo que ha reavivado el debate sobre el uso de IA en procesos legales.
TechCrunch
Un portátil con un dibujo de robot y un globo de diálogo en la pantalla sobre un fondo rojo.
Ilustración en la que se observa un portátil abierto con un robot estilizado en la pantalla y un globo de diálogo encima.

Abogado de Anthropic se disculpa por cita falsa generada por su IA Claude

La herramienta inventó una referencia legal errónea en un caso contra editoriales musicales. El error ocurrió en un tribunal de California y fue detectado por los demandantes. Es el último incidente de alucinaciones de IA en procesos judiciales.

«Un error honesto, no una fabricación»

Anthropic admitió en un documento judicial que su chatbot Claude generó una cita con «título y autores inexactos». La compañía aseguró que fue «un fallo en la verificación manual», no un intento de engaño. El juez Susan van Keulen exigió explicaciones tras las acusaciones de Universal Music Group.

La IA en el banquillo

Las editoriales acusaron a la testigo experta de Anthropic, Olivia Chen, de «usar citas falsas generadas por Claude». Este caso forma parte de múltiples disputas por el uso de obras protegidas para entrenar IA. Otros abogados en EE.UU. y Australia ya han sido sancionados por errores similares.

La paradoja de la automatización legal

Pese a los fallos, startups como Harvey buscan recaudar 250 millones para IA jurídica. El sector sigue atrayendo inversión, aunque los riesgos de alucinaciones persisten. Bloomberg destapó el incidente tras revisar los documentos judiciales.

Cuando la tecnología supera a la revisión humana

El conflicto surge en un contexto de creciente dependencia de IA en procesos legales, donde errores técnicos pueden tener consecuencias graves. Casos previos en 2023 y 2024 ya alertaron sobre este problema.

Un precedente que pide cautela

El incidente refuerza la necesidad de verificación exhaustiva al emplear IA en ámbitos jurídicos. Anthropic asumió el error, pero el caso podría influir en futuras regulaciones sobre automatización legal.