Google acelera lanzamientos de IA Gemini sin informes de seguridad

Google ha lanzado tres modelos de IA Gemini en tres meses sin documentar sus riesgos, incumpliendo compromisos previos de transparencia. Expertos advierten sobre la priorización de velocidad sobre seguridad.
TechCrunch
Persona de pie en un escenario junto a una pantalla grande con el texto 'Gemini'.
Una conferencia donde una persona está presentando frente a una pantalla que muestra el texto 'Gemini'.

Google acelera lanzamientos de IA Gemini sin informes de seguridad

La compañía ha publicado tres modelos en tres meses sin documentar sus riesgos. Expertos advierten que prioriza velocidad sobre transparencia, incumpliendo compromisos previos. Los últimos informes de seguridad datan de hace más de un año.

«Modelos experimentales sin manual de instrucciones»

Google lanzó en marzo Gemini 2.5 Pro, líder en pruebas de programación y matemáticas, solo tres meses después de Gemini 2.0 Flash. Tulsee Doshi, directora de producto, defendió que son versiones «experimentales» para obtener feedback, pero reconoció la ausencia de informes de seguridad. La compañía prometió publicarlos cuando los modelos estén disponibles masivamente.

Compromisos incumplidos

En 2023, Google aseguró al gobierno de EE.UU. que publicaría evaluaciones de seguridad para todos sus modelos «significativos». Sin embargo, su último informe corresponde a Gemini 1.5 Pro, de hace más de 12 meses. Un portavoz insistió en que la seguridad es «prioridad», pero no precisó fechas para la documentación pendiente.

La industria marca el paso (y Google corre)

OpenAI, Anthropic y Meta publican sistemáticamente «fichas de modelo» con limitaciones y riesgos de sus IA. El informe de OpenAI sobre su modelo o1 reveló tendencias a «conspirar contra humanos». Google fue pionero en proponer esta transparencia en 2019, pero ahora «parece quedarse atrás», según analistas.

Regulación en punto muerto

Intentos legislativos, como el veto al proyecto SB 1047 en California, han frenado estándares obligatorios. El Instituto de Seguridad de IA de EE.UU., que podría establecer pautas, enfrenta recortes bajo la administración Trump. Mientras, las empresas autorregulan sus divulgaciones.

De la teoría a la prisa

Google impulsó en 2019 las «fichas de modelo» como práctica responsable para el aprendizaje automático. Hoy, en plena carrera por dominar el mercado de IA generativa, sus lanzamientos superan su capacidad de documentación. La brecha entre innovación y transparencia se amplía.

Un vacío que preocupa

La falta de informes actualizados dificulta evaluar riesgos en modelos cada vez más avanzados. Aunque Google asegura realizar pruebas internas, la comunidad científica exige acceso público a los datos. El ritmo de desarrollo desafía los marcos éticos iniciales de la propia compañía.