California propone leyes de seguridad en IA que anticipen riesgos futuros
Un grupo de expertos en inteligencia artificial (IA), liderado por la pionera Fei-Fei Li, ha publicado un informe que insta a los legisladores de California a considerar riesgos de la IA que aún no se han materializado. El informe, respaldado por el gobernador Gavin Newsom, sugiere aumentar la transparencia en el desarrollo de modelos de IA y establecer protecciones para denunciantes dentro de la industria.
Un enfoque preventivo para la regulación de la IA
El informe, elaborado por el Grupo de Trabajo Conjunto de Políticas de California sobre Modelos de IA de Vanguardia, propone que las leyes de seguridad en IA no solo aborden los riesgos actuales, sino que también anticipen posibles amenazas futuras. “No necesitamos observar una explosión nuclear para predecir su daño potencial”, señala el documento, comparando los riesgos de la IA con otros peligros extremos.
Entre las recomendaciones clave se encuentran la obligación de que los desarrolladores de IA informen públicamente sobre sus pruebas de seguridad, prácticas de adquisición de datos y medidas de protección. Además, se aboga por estándares más estrictos en las evaluaciones de terceros y por ampliar las protecciones para los denunciantes dentro de las empresas de IA.
Reacciones divididas pero esperanzadoras
El informe ha sido bien recibido tanto por defensores de la seguridad en IA como por críticos de regulaciones anteriores. Dean Ball, investigador de la Universidad George Mason y crítico de la propuesta SB 1047, calificó el informe como un “paso prometedor” hacia una regulación más equilibrada. Por su parte, el senador estatal Scott Wiener, impulsor de la SB 1047, destacó que el informe refuerza las conversaciones urgentes sobre gobernanza de la IA iniciadas en 2024.
El documento no respalda ninguna legislación específica, pero sus recomendaciones coinciden con aspectos clave de la SB 1047 y su proyecto sucesor, la SB 53, como la exigencia de informar sobre pruebas de seguridad.
Un llamado a la transparencia y la verificación
El informe propone una estrategia de “confiar pero verificar” para aumentar la transparencia en el desarrollo de modelos de IA. “Los desarrolladores y empleados de IA deben tener vías para informar sobre preocupaciones públicas, como pruebas de seguridad internas, y someter sus afirmaciones a verificación de terceros”, señala el texto.
Además, se destaca la necesidad de abordar riesgos potenciales, como el uso de la IA para ciberataques o la creación de armas biológicas, aunque se reconoce que la evidencia sobre estos peligros es aún “inconclusa”.
Contexto histórico: De la SB 1047 a un enfoque más amplio
El informe surge tras el veto del gobernador Newsom a la SB 1047, una controvertida ley de seguridad en IA que fue criticada por su enfoque restrictivo. Newsom reconoció la necesidad de una evaluación más exhaustiva de los riesgos de la IA, lo que llevó a la creación de este grupo de trabajo. “El informe representa un avance significativo en la gobernanza de la IA, equilibrando innovación y seguridad”, afirmó Wiener.
Este enfoque preventivo contrasta con las regulaciones anteriores, que se centraban en riesgos ya identificados, y refleja una creciente preocupación por los posibles impactos a largo plazo de la IA.
Fuentes y transparencia
El informe fue revisado por expertos de diversos sectores, incluidos defensores de la seguridad en IA como Yoshua Bengio y críticos como Ion Stoica, cofundador de Databricks. “La diversidad de perspectivas garantiza un enfoque equilibrado”, destacó Fei-Fei Li en una declaración.
La versión final del informe se publicará en junio de 2025, y se espera que influya en futuras legislaciones sobre IA en California y otros estados.
El informe marca un hito en la regulación de la IA al proponer un enfoque preventivo y transparente. Aunque no respalda leyes específicas, sus recomendaciones podrían sentar las bases para una gobernanza más efectiva y equilibrada en un campo que avanza rápidamente. La atención ahora se centra en cómo los legisladores traducirán estas ideas en acciones concretas.