California propone leyes de seguridad en IA para anticipar riesgos futuros

Un informe liderado por Fei-Fei Li insta a California a regular la IA de manera preventiva, aumentando la transparencia y protegiendo a denunciantes en la industria.
TechCrunch
Persona sentada en un sillón sosteniendo un micrófono.
Una imagen de una persona con cabello oscuro corto sentada en un sillón claro, sosteniendo un micrófono.

California propone leyes de seguridad en IA que anticipen riesgos futuros

Un grupo de expertos en inteligencia artificial (IA), liderado por la pionera Fei-Fei Li, ha publicado un informe que insta a los legisladores de California a considerar riesgos de la IA que aún no se han materializado. El informe, respaldado por el gobernador Gavin Newsom, sugiere aumentar la transparencia en el desarrollo de modelos de IA y establecer protecciones para denunciantes dentro de la industria.

Un enfoque preventivo para la regulación de la IA

El informe, elaborado por el Grupo de Trabajo Conjunto de Políticas de California sobre Modelos de IA de Vanguardia, propone que las leyes de seguridad en IA no solo aborden los riesgos actuales, sino que también anticipen posibles amenazas futuras. “No necesitamos observar una explosión nuclear para predecir su daño potencial”, señala el documento, comparando los riesgos de la IA con otros peligros extremos.

Entre las recomendaciones clave se encuentran la obligación de que los desarrolladores de IA informen públicamente sobre sus pruebas de seguridad, prácticas de adquisición de datos y medidas de protección. Además, se aboga por estándares más estrictos en las evaluaciones de terceros y por ampliar las protecciones para los denunciantes dentro de las empresas de IA.

Reacciones divididas pero esperanzadoras

El informe ha sido bien recibido tanto por defensores de la seguridad en IA como por críticos de regulaciones anteriores. Dean Ball, investigador de la Universidad George Mason y crítico de la propuesta SB 1047, calificó el informe como un “paso prometedor” hacia una regulación más equilibrada. Por su parte, el senador estatal Scott Wiener, impulsor de la SB 1047, destacó que el informe refuerza las conversaciones urgentes sobre gobernanza de la IA iniciadas en 2024.

El documento no respalda ninguna legislación específica, pero sus recomendaciones coinciden con aspectos clave de la SB 1047 y su proyecto sucesor, la SB 53, como la exigencia de informar sobre pruebas de seguridad.

Un llamado a la transparencia y la verificación

El informe propone una estrategia de “confiar pero verificar” para aumentar la transparencia en el desarrollo de modelos de IA. “Los desarrolladores y empleados de IA deben tener vías para informar sobre preocupaciones públicas, como pruebas de seguridad internas, y someter sus afirmaciones a verificación de terceros”, señala el texto.

Además, se destaca la necesidad de abordar riesgos potenciales, como el uso de la IA para ciberataques o la creación de armas biológicas, aunque se reconoce que la evidencia sobre estos peligros es aún “inconclusa”.

Contexto histórico: De la SB 1047 a un enfoque más amplio

El informe surge tras el veto del gobernador Newsom a la SB 1047, una controvertida ley de seguridad en IA que fue criticada por su enfoque restrictivo. Newsom reconoció la necesidad de una evaluación más exhaustiva de los riesgos de la IA, lo que llevó a la creación de este grupo de trabajo. “El informe representa un avance significativo en la gobernanza de la IA, equilibrando innovación y seguridad”, afirmó Wiener.

Este enfoque preventivo contrasta con las regulaciones anteriores, que se centraban en riesgos ya identificados, y refleja una creciente preocupación por los posibles impactos a largo plazo de la IA.

Fuentes y transparencia

El informe fue revisado por expertos de diversos sectores, incluidos defensores de la seguridad en IA como Yoshua Bengio y críticos como Ion Stoica, cofundador de Databricks. “La diversidad de perspectivas garantiza un enfoque equilibrado”, destacó Fei-Fei Li en una declaración.

La versión final del informe se publicará en junio de 2025, y se espera que influya en futuras legislaciones sobre IA en California y otros estados.

El informe marca un hito en la regulación de la IA al proponer un enfoque preventivo y transparente. Aunque no respalda leyes específicas, sus recomendaciones podrían sentar las bases para una gobernanza más efectiva y equilibrada en un campo que avanza rápidamente. La atención ahora se centra en cómo los legisladores traducirán estas ideas en acciones concretas.

 

Uno de los accidentes se registró en la avenida Kantutani.

Tres accidentes en La Paz dejan cuatro heridos graves en menos de 24 horas

Inauguración del Centro de Cómputo en Santa Cruz.

Bolivia afina detalles de seguridad y logística para balotaje subnacional

Richet Gómez, de Always Ready, frena el avance de Lucas Besozzi, de Lanús.

Always Ready cae 1-0 ante Lanús y complica su futuro en la Copa Libertadores

Alemán en la previa de un partido.

Bolívar rescinde el contrato de Christian Alemán por una falta disciplinaria grave

El delantero de Chile festejando el primer gol del partido.

Bolivia cae goleada ante Chile y complica su clasificación al Mundial Sub-17

La selección colombiana jugará la final del Sudamericano.

Colombia golea 3-0 a Brasil y avanza a la final del Sudamericano Sub-17

Imagen sin título

Blooming empata 2-2 ante RB Bragantino en la Copa Sudamericana

Ronald Raldes espera contar con la presencia de todo su directorio.

Raldes convoca al directorio de Oriente Petrolero para informe económico clave

Imagen sin título

Investigado afirma que fue secuestrado antes de balacera mortal en Santa Cruz

Mario Argollo, secretario ejecutivo de la COB.

La COB condiciona el diálogo con el Gobierno a la abrogación de la Ley 157

Sebastián Peña, presidente de Blooming.

Presidente de Blooming confía en buen resultado ante Bragantino en la Copa Sudamericana

Ministro de Economía, Gabriel Espinoza.

Asamblea Legislativa de Bolivia posterga interpelación al ministro de Economía

📊 No hay datos disponibles para "California propone leyes de seguridad en IA para anticipar riesgos futuros" en el período seleccionado.