Laura Bates analiza cómo la IA reinventa la misoginia en nuevo libro
La tecnología de inteligencia artificial facilita el acceso a nuevas formas de abuso contra mujeres y niñas. La autora feminista publica «The New Age of Sexism», donde documenta cómo deepfakes y asistentes virtuales perpetúan la opresión. La falta de regulación global agrava el problema.
La nueva frontera digital del abuso
Laura Bates, fundadora de The Everyday Sexism Project, argumenta que la IA está intensificando las formas existentes de misoginia mediante nuevas amenazas y métodos de control. Cualquier persona con acceso a internet puede crear imágenes pornográficas abusivas altamente realistas de mujeres o niñas utilizando simples capturas de imágenes vestidas de internet.
Impacto en menores y entornos educativos
El problema afecta gravemente a menores, con casos emergentes en escuelas de EE.UU., Reino Unido y Australia donde niños de 10 u 11 años crean contenido abusivo de sus compañeras. Bates alerta que los niños acceden a estas tecnologías durante sus años formativos cuando son más vulnerables.
Asistentes virtuales y compañeros artificiales
La feminización de asistentes virtuales como Siri y Alexa refuerza estereotipos de género. Bates señala que el 10% de las conversaciones con asistentes virtuales son de naturaleza abusiva. Los chatbots y novias AI promueven relaciones distorsionadas donde la mujer aparece como «eternamente disponible, utterly sumisa y preparada para violencia sexual extrema».
Un patrón histórico que se repite
La tecnología no es inherentemente buena o mala sino que refleja los sesgos de sus creadores, perpetuando formas históricas de misoginia con nuevos medios. Bates documenta cómo nuevos desarrollos tecnológicos degeneran rápidamente en misoginia, siguiendo un patrón ya visto con internet, redes sociales y pornografía online.
Regulación urgente y impacto global
Bates enfatiza que la regulación global es la solución más urgente, pero el panorama es preocupante. Estados Unidos y Reino Unido se resisten a acuerdos internacionales de seguridad en IA. La autora concluye que las empresas tecnológicas tienen la capacidad pero no la voluntad de hacer sus plataformas seguras, priorizando los beneficios sobre la protección.