Agentes de IA generan dudas legales por errores en sistemas autónomos

Prototipos de IA autónoma cometen errores en pedidos y desarrollo de software, generando desafíos legales para asignar responsabilidades. Empresas como Microsoft y Google ya ofrecen estas herramientas.
WIRED
Varias manos en diferentes posiciones sobre un fondo azul brillante.
Una imagen que muestra manos colocadas de forma artística sobre un fondo uniforme azul.

Agentes de IA generan dudas legales al cometer errores

Prototipos de sistemas autónomos fallan en pedidos y desarrollo de software. Expertos advierten sobre la dificultad de asignar responsabilidades cuando múltiples agentes interactúan. Microsoft, Google y Amazon ya ofrecen herramientas para crear estos programas.

«Es imposible señalar al responsable»

Jay Prakash Thakur, ingeniero de Microsoft, ha probado agentes que malinterpretan pedidos de comida o generan apps con información errónea. En un caso, un agente resumió incorrectamente los términos de un servicio, lo que habría causado fallos en un sistema real. «Los registros de errores no siempre permiten rastrear el origen», explica.

Problemas en cadena

En simulaciones de restaurantes, 1 de cada 10 pedidos contenía errores, como confundir «anillos de cebolla» con «cebolla extra». Thakur señala que los fallos aumentan con órdenes complejas. Benjamin Softness, abogado especializado, alerta que las empresas terminarán asumiendo costes legales, ya que los usuarios afectados demandarán a quienes tengan más recursos.

La industria apuesta fuerte, pero con riesgos

Gartner prevé que en 2029 el 80% de las consultas de servicio al cliente las resolverán agentes. Sin embargo, casos como un chatbot de aerolínea que generó un cupón inválido (y legalmente vinculante) muestran los riesgos actuales. OpenAI y Anthropic ya han enfrentado problemas por respuestas incorrectas en documentos legales.

Soluciones parciales

Algunos desarrolladores proponen agentes «jueces» para supervisar errores, pero añadir controles humanos reduce la autonomía, clave para ahorrar tiempo. Dazza Greenwood, abogado, recomienda posponer lanzamientos si los sistemas tienen tasas de error altas: «No se puede dañar a los usuarios desde el inicio».

Un mercado en auge con reglas por definir

Fiverr registró un aumento del 18.347% en búsquedas de «agente de IA». Las aseguradoras ya ofrecen coberturas para fallos de chatbots, pero no hay consenso sobre quién debe responder por errores en sistemas multiagente. Las empresas podrían exigir contratos que trasladen responsabilidades a los proveedores tecnológicos.

La IA avanza más rápido que la ley

El sector tecnológico impulsa agentes autónomos pese a sus limitaciones actuales. Mientras, abogados debaten cómo aplicar leyes existentes a sistemas donde la cadena de responsabilidades se diluye. La eficacia de estas herramientas dependerá de su capacidad para minimizar errores críticos sin sacrificar autonomía.