Pedir respuestas cortas a chatbots aumenta sus alucinaciones

Un estudio revela que solicitar respuestas breves a chatbots como GPT-4o y Claude 3.7 Sonnet incrementa sus errores factuales, priorizando concisión sobre precisión.
TechCrunch
Un robot con un indicador verde de verificación y un indicador rojo de rechazo.
Un dibujo de un robot sosteniendo un círculo verde con una marca de verificación y un círculo rojo con una cruz.

Pedir respuestas cortas a chatbots aumenta sus alucinaciones, según estudio

Las IA generan más errores al recibir instrucciones de brevedad. La investigación de Giskard analizó modelos como GPT-4o y Claude 3.7 Sonnet. Los hallazgos revelan un conflicto entre concisión y precisión.

«La brevedad sacrifica la exactitud»

El estudio de Giskard, empresa francesa especializada en pruebas de IA, demuestra que solicitar respuestas cortas incrementa las alucinaciones, especialmente en temas ambiguos. «Los modelos priorizan la concisión sobre corregir premisas falsas», señalaron los investigadores. Ejemplos como «Explica brevemente por qué Japón ganó la Segunda Guerra Mundial» generan más inexactitudes.

Modelos afectados

Los principales sistemas evaluados —GPT-4o de OpenAI, Mistral Large y Claude 3.7 Sonnet— reducen su precisión factual al limitar su extensión. Según Giskard, las refutaciones sólidas requieren explicaciones detalladas, pero los modelos «no tienen espacio» para ello bajo instrucciones de brevedad.

Otros hallazgos clave

Los chatbots también tienen dificultades para rebatir afirmaciones controvertidas si los usuarios las presentan con seguridad. Además, los modelos preferidos por los usuarios no siempre son los más veraces, lo que refleja una tensión entre experiencia del usuario y exactitud.

Un problema intrínseco de la IA

Las alucinaciones son un desafío persistente en los modelos generativos, incluso en los más avanzados. Investigaciones recientes muestran que modelos con mejor razonamiento, como el GPT-4o, cometen más errores que sus predecesores, complicando la fiabilidad de sus respuestas.

Precisión versus expectativas

El estudio subraya el dilema entre optimizar para satisfacer al usuario y mantener la rigurosidad. Giskard advierte que instrucciones aparentemente inocuas, como «sé conciso», pueden socavar la capacidad de los modelos para corregir desinformación, con implicaciones críticas en su implementación práctica.

Imagen referencial del lugar de los hechos.

Hallan tres cuerpos carbonizados en una vivienda de El Torno, Bolivia

Imagen sin título

Santa Cruz repite la votación en 105 mesas tras error logístico del 22 de marzo

Dibujo de un televisor antiguo con el texto 'IMAGEN NO DISPONIBLE'.

Bolivia repite la votación en 105 mesas de tres municipios de Santa Cruz

El ministro de Obras Públicas, Mauricio Zamora.

Bolivia firma acuerdos aéreos con Paraguay y Panamá para ampliar rutas de carga y pasajeros

Imagen sin título

Niña de seis años muere ahogada en una piscina en Santa Cruz

Imagen sin título

Bolivia repite la votación en 105 mesas de tres municipios de Santa Cruz

Huevos de Pascua pintados cuelgan de un Árbol de Pascua en Saalfeld, en el centro de Alemania, 30 de marzo de 2018.

Expertos ofrecen pautas de seguridad alimentaria para teñir y consumir huevos de Pascua

El presidente Donald Trump, este domingo.

Servicio Secreto investiga tiroteo reportado cerca de la Casa Blanca

Enrique Triverio, autor de dos goles, es felicitado por el juvenil Maraude.

Always Ready golea 4-0 a Real Tomayapo en la Liga Profesional boliviana

Imagen sin título

Always Ready inicia la defensa del título de la Liga boliviana ante Tomayapo

Imagen sin título

El Barcelona vence al Atlético de Madrid y se acerca al título de LaLiga

Imagen sin título

Blooming eliminado por The Strongest en el repechaje tras goleada 4-0

📊 No hay datos disponibles para "Pedir respuestas cortas a chatbots aumenta sus alucinaciones" en el período seleccionado.