Abogado de Anthropic se disculpa por cita falsa generada por su IA Claude
La herramienta inventó una referencia legal errónea en un caso contra editoriales musicales. El error ocurrió en un tribunal de California y fue detectado por los demandantes. Es el último incidente de alucinaciones de IA en procesos judiciales.
«Un error honesto, no una fabricación»
Anthropic admitió en un documento judicial que su chatbot Claude generó una cita con «título y autores inexactos». La compañía aseguró que fue «un fallo en la verificación manual», no un intento de engaño. El juez Susan van Keulen exigió explicaciones tras las acusaciones de Universal Music Group.
La IA en el banquillo
Las editoriales acusaron a la testigo experta de Anthropic, Olivia Chen, de «usar citas falsas generadas por Claude». Este caso forma parte de múltiples disputas por el uso de obras protegidas para entrenar IA. Otros abogados en EE.UU. y Australia ya han sido sancionados por errores similares.
La paradoja de la automatización legal
Pese a los fallos, startups como Harvey buscan recaudar 250 millones para IA jurídica. El sector sigue atrayendo inversión, aunque los riesgos de alucinaciones persisten. Bloomberg destapó el incidente tras revisar los documentos judiciales.
Cuando la tecnología supera a la revisión humana
El conflicto surge en un contexto de creciente dependencia de IA en procesos legales, donde errores técnicos pueden tener consecuencias graves. Casos previos en 2023 y 2024 ya alertaron sobre este problema.
Un precedente que pide cautela
El incidente refuerza la necesidad de verificación exhaustiva al emplear IA en ámbitos jurídicos. Anthropic asumió el error, pero el caso podría influir en futuras regulaciones sobre automatización legal.