Adobe lanza estándar para proteger imágenes de IA

Adobe presenta una herramienta para que creadores excluyan sus imágenes del entrenamiento de IA, aunque su eficacia depende de la adopción por empresas de inteligencia artificial.
TechCrunch
Pantalla de dispositivo con un logotipo y fondo rojo y blanco.
Vista de un dispositivo que muestra un logotipo en colores rojo y negro, con un fondo geométrico rojo y blanco.

Adobe propone un estándar para evitar el uso de imágenes en entrenamiento de IA

La compañía lanza una herramienta que permite a los creadores marcar sus archivos para excluirlos de modelos de IA. El sistema, similar al «robots.txt», depende de que las empresas de inteligencia artificial respeten la indicación. Se presentó este 24 de abril mediante una aplicación web y extensión de Chrome.

«Un semáforo para proteger la autoría»

Adobe ha desarrollado la Adobe Content Authenticity App, que permite adjuntar credenciales de propiedad (nombre, redes sociales) y una casilla para rechazar el uso en entrenamiento de IA. Funciona con hasta 50 archivos JPG o PNG simultáneos y usa verificación de LinkedIn para confirmar identidades. La metadata persiste incluso si la imagen se modifica, gracias a huellas digitales y watermarking.

El desafío de la adopción

El principal obstáculo es que ninguna compañía de IA ha acordado respetar este estándar. Andy Parson de Adobe reconoce que están en negociaciones, pero recuerda que «los rastreadores de IA ya ignoran frecuentemente el robots.txt». La herramienta forma parte del estándar C2PA, impulsado por la Coalición para la Proveniencia y Autenticidad de Contenidos.

De la polémica a la solución

El debate sobre el uso de contenido en IA se intensificó en 2024 cuando Meta etiquetó automáticamente imágenes editadas como «Hecho con IA», generando quejas de fotógrafos. Aunque Adobe y Meta son parte del comité C2PA, sus implementaciones difieren. La nueva app busca dar «control claro a los creadores sobre sus obras», según Parsons.

Un grito de auxilio creativo

Con regulaciones dispersas globalmente, artistas y agencias demandan herramientas para proteger su trabajo del entrenamiento no consentido de modelos generativos. Adobe enfatiza que las credenciales no determinan derechos de autor, pero «permiten reclamar autoría» en un entorno donde las fronteras entre arte humano y AI son difusas.

¿Funcionará el candado digital?

La eficacia del sistema dependerá de la adhesión de las empresas de IA y de la adopción masiva por creadores. Adobe planea extenderlo a video y audio. Mientras, su extensión Chrome ya identifica imágenes con credenciales (símbolo «CR») incluso en plataformas como Instagram, que no soportan nativamente el estándar.