DeepMind advierte que la AGI podría llegar en 2030 con riesgos «severos»
El laboratorio de Google publica un documento de 145 páginas sobre seguridad en Inteligencia Artificial General. El texto, coescrito por su cofundador Shane Legg, alerta sobre posibles daños «existenciales» pero también reconoce beneficios transformadores. La comunidad científica muestra escepticismo ante estas predicciones.
«Un sistema que iguale al 1% más hábil de los humanos»
DeepMind define la AGI como una inteligencia capaz de realizar cualquier tarea no física al nivel del 99% de los adultos cualificados, incluyendo habilidades metacognitivas. El documento anticipa su desarrollo «antes de finales de esta década» y propone medidas para evitar accesos malintencionados o bucles de automejora peligrosos. «Es crítico que los desarrolladores mitiguen daños severos», insisten los autores.
Diferencias con OpenAI y Anthropic
El paper contrasta su enfoque con otros laboratorios: critica a OpenAI por automatizar investigaciones de alineación y a Anthropic por restar importancia al monitoreo robusto. Además, cuestiona la viabilidad de superinteligencias próximas, pese al reciente giro de OpenAI hacia ese objetivo.
Escepticismo científico
Expertos como Heidy Khlaaf (AI Now Institute) tachan la AGI de «concepto poco definido para evaluaciones rigurosas». Matthew Guzdial (Universidad de Alberta) niega evidencias de mejora recursiva, base de los argumentos singularistas. Sandra Wachter (Oxford) alerta sobre un riesgo inmediato: modelos que se alimentan de sus propias «alucinaciones» generadas previamente.
Entre la utopía y el apocalipsis
El debate sobre la AGI divide a la comunidad tecnológica desde hace años. Mientras algunos, como DeepMind, la ven factible y urgente de regular, otros la consideran una distracción frente a problemas actuales del IA, como los sesgos o la desinformación.
Un futuro por escribir (¿o por programar?)
El documento subraya la dualidad de la AGI: potencial para revolucionar sectores, pero también para causar daños irreversibles. Sin consenso científico sobre su viabilidad, las medidas propuestas —aún en fase incipiente— buscan anticipar escenarios que podrían materializarse antes de 2030.