Startup española Multiverse recauda 189 millones para abaratar la IA
La tecnología «CompactifAI» reduce un 95% el tamaño de modelos de lenguaje. La ronda Serie B liderada por Bullhound permitirá expandir sus modelos comprimidos, que ya usan 100 clientes globales como Bosch o el Banco de Canadá.
«Modelos ‘slim’ que caben en un móvil»
Multiverse Computing, con sede en San Sebastián, ha desarrollado un sistema de compresión inspirado en computación cuántica. Sus versiones reducidas de LLMs como Llama 4 Scout o Mistral Small 3.1 consumen hasta un 80% menos en costes de inferencia. «Algunos pueden ejecutarse en Raspberry PI», destacan.
Tecnología con sello académico
Fundada por el catedrático Román Orús y el exbanquero Enrique Lizaso, la startup utiliza redes tensoriales para comprimir modelos sin perder rendimiento. Tienen 160 patentes y ofrecen sus servicios mediante AWS o licencias locales.
De laboratorio a multinacionales
La ronda incluyó a inversores como HP Tech Ventures y Santander Climate VC. Los fondos acelerarán el lanzamiento de nuevas versiones, como DeepSeek R1. Actualmente no soportan modelos propietarios como los de OpenAI.
Cuando la física cuántica encuentra la IA
Las redes tensoriales, base de CompactifAI, surgieron como simuladores de computación cuántica. Desde 2020, se aplican en optimización de modelos de deep learning, un mercado que superará los 50.000 millones en 2026 según IDC.
¿Revolución o evolución?
El éxito de Multiverse dependerá de su capacidad para escalar en un sector dominado por gigantes tecnológicos. Su apuesta por modelos ligeros podría democratizar el acceso a la IA en dispositivos cotidianos.