Meta y TikTok priorizaron crecimiento sobre seguridad, según denunciantes
Investigación interna de Meta reveló que su algoritmo maximiza beneficios a costa del bienestar del usuario. Más de una docena de denunciantes de Meta y TikTok han expuesto ante la BBC decisiones que, según ellos, antepusieron la competencia y el crecimiento a la seguridad de los usuarios, especialmente de menores.
La carrera del algoritmo: “Hacer lo que sea para alcanzar”
Denunciantes de Meta afirman que la compañía permitió más contenido “borderline” (nocivo pero legal) en Facebook e Instagram para competir con TikTok. Un ingeniero, identificado como Tim, declaró que un vicepresidente senior ordenó relajar los controles: “Estamos perdiendo frente a TikTok y, por lo tanto, el precio de nuestras acciones sufre”. La medida buscaba aumentar la participación de los usuarios y los ingresos publicitarios.
Instagram Reels se lanzó sin salvaguardas suficientes
Matt Motyl, ex investigador senior de Meta, dijo que Instagram Reels se lanzó en 2020 sin protecciones adecuadas. Un estudio interno mostró que los comentarios en Reels tenían un 75% más de acoso, un 19% más de discurso de odio y un 7% más de incitación a la violencia que en el feed principal de Instagram. Motyl describió un “desequilibrio de poder” donde los equipos de seguridad necesitaban la aprobación de los equipos de Reels para implementar mejoras.
Prioridades en TikTok: políticos sobre menores
Un empleado del equipo de confianza y seguridad de TikTok, llamado Nick, mostró a la BBC dasboards internos que clasificaban casos. Denunció que quejas de figuras políticas recibían mayor prioridad que informes de daños a adolescentes. En un ejemplo, un político comparado con un pollo se priorizó sobre una menor de 16 años en Irak que reportó “imágenes sexualizadas” suyas circulando en la app. Según Nick, el objetivo era “mantener una relación fuerte” con gobiernos para evitar regulaciones.
Consejo del denunciante: “Borren TikTok”
Nick afirmó que el volumen de casos es inmanejable y que los recortes y la sustitución de moderadores por IA limitan la eficacia. Su consejo para los padres es directo: “Bórrenlo, manténganlos lo más lejos posible de la app”. TikTok rechazó estas acusaciones, afirmando que la seguridad de los menores es manejada por equipos dedicados y que cuenta con más de 50 funciones de seguridad preestablecidas para adolescentes.
El mecanismo de la indignación
Documentos internos de Meta, compartidos por Motyl, reconocen que el contenido sensible que provoca indignación genera un compromiso desproporcionado. El algoritmo interpreta esta reacción como una señal de que los usuarios quieren más contenido similar. Un estudio interno concluyó que los incentivos financieros creados por el algoritmo no están alineados con la misión declarada de la empresa.
Repercusión y negativas
Policías antiterroristas del Reino Unido observan una “normalización” de contenidos antisemitas, racistas y de extrema derecha en redes sociales. Un joven, Calum, declaró haber sido “radicalizado por el algoritmo” desde los 14 años. Meta negó que amplifique contenido dañino por ganancia económica. TikTok calificó las afirmaciones como “fabricadas” y destacó sus inversiones en tecnología para prevenir que se visualice contenido nocivo.