Microsoft lanza modelo de IA ultraeficiente para CPUs

Microsoft presenta BitNet b1.58 2B4T, un modelo de IA que opera con solo 3 valores y supera en velocidad a competidores como Meta y Google, aunque requiere un framework específico.
TechCrunch
Un cartel grande con letras blancas sobre un edificio de vidrio.
Vista de un cartel grande encima de un edificio moderno con fachada de vidrio.

Microsoft desarrolla un modelo de IA ultraeficiente para CPUs

BitNet b1.58 2B4T opera con solo 3 valores (-1, 0, 1) y supera a rivales en velocidad. Investigadores de Microsoft presentaron este modelo abierto, entrenado con 4 billones de tokens. Funciona en chips como el M2 de Apple, pero requiere un framework específico.

«Un salto en eficiencia para hardware limitado»

El equipo de Microsoft afirma que este es el primer modelo «bitnet» con 2.000 millones de parámetros. Su diseño comprimido (valores de -1, 0, 1) reduce la memoria y potencia necesarias, permitiendo ejecutarse en CPUs sin GPUs. «Supera a Meta, Google y Alibaba en pruebas de matemáticas y razonamiento», destacan.

Rendimiento y limitaciones

Según los benchmarks, BitNet b1.58 2B4T es hasta dos veces más rápido que modelos similares como Llama 3.2 o Gemma 3, usando menos recursos. Sin embargo, solo funciona con bitnet.cpp, el framework de Microsoft, incompatible actualmente con GPUs, clave en IA.

De 33 millones de libros a tu portátil

El modelo se entrenó con 4 billones de tokens (equivalente a ~33 millones de libros), priorizando eficiencia sobre complejidad. Los «bitnets» emergen como alternativa para dispositivos con restricciones, aunque su adopción masiva depende de ampliar la compatibilidad.

Velocidad sí, pero con condiciones

La promesa de IA accesible en CPUs choca con la dependencia de herramientas exclusivas. Microsoft abre camino en optimización, pero la falta de soporte para GPUs limita su impacto inmediato en un mercado dominado por estos chips.