Meta reduce un 33% las retiradas de contenido en Facebook e Instagram
La empresa eliminó 1.600 millones de publicaciones en lugar de 2.400 millones tras relajar sus normas en enero. Según Meta, los cambios favorecen la «libertad de expresión» sin aumentar la exposición a contenido dañino. Los datos corresponden al primer trimestre de 2025.
«Menos errores, más discurso»
Meta atribuye la caída en las retiradas a cambios en sus políticas de moderación, que priorizan «violaciones graves» y reducen el uso de herramientas automáticas. «Hemos disminuido a la mitad las eliminaciones erróneas en EE.UU.», señaló la compañía. Las apelaciones y restituciones de contenido también bajaron.
¿Qué categorías se vieron afectadas?
Las retiradas cayeron un 50% en spam, 36% en contenido de peligro infantil y 29% en conductas de odio. Solo aumentaron (+12%) en publicaciones sobre suicidio y autolesiones. La automatización en detección de discurso de odio en Instagram se mantuvo en 97,4%.
El contexto de los cambios
En enero, Meta ajustó sus normas para alinearlas con el «discurso mainstream», permitiendo términos criticados por activistas, como acusaciones de «enfermedad mental» basadas en género u orientación sexual. Los empleados temían un aumento de contenido tóxico, pero la exposición a discurso de odio bajó a 1-2 por cada 10.000 publicaciones vistas.
Usuarios en aumento, controles en descenso
Pese a la reducción en moderación, las plataformas de Meta sumaron 80 millones de usuarios más (3.430 millones en total). La compañía insiste en que los cambios no han generado un entorno más hostil, aunque reconoce que la eficacia de sus sistemas dependerá de auditorías continuas.