Meta AI expone conversaciones personales de usuarios en su plataforma
Consultas médicas, legales y datos sensibles son visibles públicamente. La función «Descubrir» de la aplicación lanzada en abril muestra interacciones no filtradas, pese a que Meta afirma que los chats son privados por defecto.
«Nada de lo que pones en una IA es confidencial»
La plataforma de Meta AI incluye un feed público donde usuarios comparten involuntariamente información delicada: desde direcciones y números de teléfono hasta detalles sobre fraudes fiscales o cirugías médicas. «Es preocupante cómo subestiman la privacidad en estas estructuras», advierte Calli Schroeder del Electronic Privacy Information Center (EPIC).
Ejemplos reveladores
Un hombre de 66 años buscó países donde «mujeres jóvenes prefieran hombres mayores», otro usuario pidió ayuda para un aviso académico con datos personales, y varios consultaron sobre condiciones médicas específicas. Muchas cuentas están vinculadas a perfiles públicos de Instagram.
La postura de Meta
La compañía insiste en que los chats son privados «a menos que el usuario elija compartirlos», pero no aclara cómo mitiga la exposición de datos sensibles. En un blog oficial, Meta destacó que el sistema «aprende de información previamente compartida en sus productos».
Un lanzamiento bajo sospecha
Meta AI alcanzó 1.000 millones de usuarios en abril, pero críticos ya alertaron sobre riesgos de privacidad. La empresa avanza en su desarrollo: creó un laboratorio de superinteligencia liderado por Alexandr Wang (Scale AI).
La IA que no distingue lo público de lo íntimo
El caso evidencia la brecha entre las expectativas de privacidad de los usuarios y la realidad de las plataformas de IA. Como resumió el propio chatbot de Meta al ser cuestionado: «Es un desafío continuo».