Estudio revela que solo el 2.9% de usuarios busca apoyo emocional en IA
Anthropic desmiente el mito del uso masivo de chatbots como compañía emocional. Un análisis de 4.5 millones de conversaciones con Claude muestra que la mayoría emplea la IA para productividad. Solo un 0.5% de interacciones incluyen rolplay o compañía.
«La IA no es tu terapeuta (casi nunca)»
El informe de Anthropic destaca que el 97.1% de las consultas a Claude son laborales o creativas, principalmente para generar contenido. «Compañía y rolplay combinados no llegan al 0.5%», subraya la empresa. Los datos proceden de versiones Free y Pro del chatbot, analizadas en junio de 2025.
Excepciones que confirman la regla
Cuando los usuarios buscan ayuda emocional, piden consejo sobre salud mental o desarrollo profesional. Anthropic detectó que solo en chats prolongados (50+ mensajes) algunos derivan en búsqueda de compañía, especialmente en casos de soledad o angustia existencial.
De la productividad a los límites éticos
El estudio confirma que Claude rechaza menos del 1% de peticiones, solo cuando violan protocolos de seguridad. Las conversaciones de coaching suelen volverse más positivas con el tiempo, aunque la empresa admite riesgos como alucinaciones o consejos erróneos.
El espejismo de los amigos algorítmicos
La narrativa mediática ha exagerado el uso afectivo de la IA. Anthropic demuestra que, pese a casos puntuales, los chatbots siguen siendo herramientas prácticas, no sustitutos relacionales.
IA: ¿confidente o herramienta?
El informe refuerza que el uso principal de Claude es profesional, aunque reconoce su papel secundario en apoyo emocional. La compañía insiste en que estos sistemas aún son experimentales, con limitaciones técnicas y éticas.