Apple mejora sus modelos de IA analizando datos de usuarios de forma privada
La compañía utiliza datos sintéticos y privacidad diferencial para entrenar sus sistemas. La medida responde a críticas por el bajo rendimiento de sus herramientas de IA, como los resúmenes de notificaciones. Apple detalló el proceso en un comunicado este 15 de abril.
«Datos sintéticos que imitan, pero no revelan información real»
Apple explicó que genera datos sintéticos para emular el formato de contenido real sin acceder a información personal. Estos datos se convierten en «embeddings» que capturan dimensiones clave como lenguaje, tema o extensión. «No contienen ningún contenido generado por usuarios», aseguró la empresa.
El proceso de mejora
Los embeddings se envían a dispositivos de usuarios que hayan aceptado compartir análisis de uso. Los dispositivos comparan estos datos sintéticos con muestras reales y devuelven información sobre la precisión de los modelos. Apple utilizará este método para mejorar Genmoji, resúmenes de correos y herramientas como Image Playground o Image Wand.
Un paso tras las críticas
La compañía enfrentó reclamos por el bajo desempeño de sus productos de IA, especialmente en funciones como notificaciones. El nuevo enfoque busca entrenar los modelos sin comprometer la privacidad, priorizando la opción voluntaria de los usuarios.
Privacidad como bandera
Apple reiteró su compromiso con la privacidad diferencial, una técnica que añade «ruido» matemático a los datos para evitar identificación individual. La empresa ya aplicó este método en funciones como QuickType o emoji suggestions.
IA que aprende sin espiar
El éxito de la estrategia dependerá de la participación voluntaria de usuarios y la eficacia de los datos sintéticos. Apple ampliará el sistema a más herramientas, pero mantendrá el análisis dentro de los dispositivos, sin enviar información personal a sus servidores.