Meta presenta V-JEPA 2, un modelo de IA que entiende el entorno físico
La nueva tecnología es 30 veces más rápida que el modelo Cosmos de Nvidia. Diseñado para robots y agentes de IA, aprende de vídeos para predecir acciones cotidianas. Meta lo anunció el 11 de junio de 2025 como evolución de su modelo anterior.
«Un salto en inteligencia artificial con sentido común»
V-JEPA 2 es un «modelo del mundo» que analiza secuencias visuales para anticipar comportamientos, como usar una espátula para servir huevos cocinados. Según Yann LeCun, científico jefe de IA de Meta, esta tecnología «reducirá la necesidad de grandes cantidades de datos de entrenamiento robótico».
¿Cómo funciona?
Entrenado con más de 1 millón de horas de vídeo, el sistema imita el aprendizaje humano o animal, comprendiendo conceptos como la gravedad o la trayectoria de objetos. Meta ilustra su utilidad en tareas domésticas, donde robots podrían «predecir acciones lógicas» sin programación explícita.
Antecedentes: La carrera por la IA física
El primer V-JEPA se lanzó en 2024, centrado en análisis visual. Su evolución compite ahora con Cosmos de Nvidia, aunque Meta advierte que los benchmarks de evaluación pueden diferir. La compañía busca liderar la aplicación de IA en robótica práctica.
Robots que aprenden como niños
La tecnología podría integrarse en asistentes robóticos para hogares o industrias. Su eficacia dependerá de su capacidad para generalizar conocimientos sin requerir datos masivos, un desafío clave en IA. Meta no ha detallado aún plazos para su implementación comercial.