Nueva York aprueba ley para prevenir desastres causados por IA
La RAISE Act impone transparencia a gigantes tecnológicos como OpenAI y Google. Legisladores estatales buscan evitar escenarios catastróficos con multas de hasta 30 millones. La norma fue aprobada el 13 de junio y espera la firma de la gobernadora.
«Ventana que se cierra para regular la IA»
El estado de Nueva York aprobó el jueves una ley pionera que obliga a los laboratorios de IA avanzada a publicar informes de seguridad. La RAISE Act, respaldada por expertos como Geoffrey Hinton, aplica a empresas que invirtieron más de 100 millones en entrenar modelos. «Los riesgos son alarmantes», declaró el senador Andrew Gounardes, coautor del proyecto.
Multas y transparencia
Si se incumplen las normas, la fiscalía de Nueva York podrá imponer sanciones de 30 millones de dólares. Las empresas afectadas incluyen a OpenAI, Google, Anthropic y firmas chinas como Alibaba. La ley exige reportar incidentes como robos de modelos o comportamientos peligrosos de IA.
Críticas de la industria
Silicon Valley rechaza la medida, calificándola de «estúpida» en palabras del socio de Andreessen Horowitz. Sin embargo, los legisladores insisten en que no frena la innovación y excluye expresamente a startups e investigadores académicos.
Un precedente controvertido
La RAISE Act retoma aspectos del fallido proyecto SB 1047 de California, vetado en 2024. Sin embargo, evita polémicas como exigir un «botón de emergencia» en los modelos. Según sus promotores, el texto equilibra seguridad sin asfixiar el desarrollo tecnológico.
¿Qué sigue para Nueva York?
La gobernadora Kathy Hochul debe decidir si promulga la ley, la veta o solicita cambios. Su aprobación convertiría a Nueva York en el primer estado con estándares legales para IA avanzada, marcando un precedente global.