Usuarios detectan pérdida de calidad en IA como Gemini y Claude
Modelos avanzados reducen su precisión meses después de su lanzamiento. Usuarios y estudios académicos confirman el fenómeno en herramientas como GPT-4, Gemini 2.5 Pro y Claude Code. Compañías como OpenAI y Anthropic han reconocido problemas puntuales.
«De bestias a vagos»: el declive percibido
Comunidades como Reddit y Hacker News reportan que IA alabadas inicialmente, como Gemini 2.5 Pro, ahora generan «absolutas tonterías». Un usuario mostró conversaciones donde el modelo reconocía errores continuos. Otros destacan comportamientos como respuestas truncadas o pérdida de eficacia en programación, donde la tasa de código ejecutable de GPT-4 cayó del 52% al 10% en tres meses (2023).
La teoría del «recorte»
Desarrolladores como Ian Nuttall sospechan que las empresas usan versiones «destiladas» de los modelos para ahorrar costes, especialmente en horas pico. «Pagaría por una versión que no se degrade», afirmó. Alex Finn añadió: «Esto me ha pasado con TODAS las herramientas de IA que he usado».
No es solo impresión: los datos lo respaldan
Un estudio de Berkeley y Stanford en 2023 demostró caídas «espectaculares» en precisión entre versiones de GPT-4. OpenAI admitió entonces que el comportamiento podía ser «impredecible», aunque negó cambios intencionados. Anthropic también reconoció problemas recientes en Claude Code, como lentitud y limitaciones no comunicadas.
Cuando la IA pide propina
Algunos usuarios idearon métodos curiosos para mejorar respuestas, como prometer «propinas» virtuales o explicar al chatbot que «no tenían dedos para escribir código». Estas tácticas, según testimonios, lograron resultados puntuales.
Un ciclo repetido
El patrón se repite desde 2023: lanzamientos celebrados, seguidos de quejas por degradación. Las compañías insisten en que los modelos mejoran, pero los datos y la experiencia de usuarios expertos contradicen esa narrativa.
¿Hacia dónde van las IA?
El fenómeno plantea dudas sobre la sostenibilidad de los modelos actuales. Mientras las empresas ajustan sus sistemas, los usuarios enfrentan herramientas menos confiables, especialmente en tareas críticas como programación.