OpenAI lanza modelos o3 y o4-mini con razonamiento avanzado

OpenAI presenta sus nuevos modelos o3 y o4-mini, capaces de analizar imágenes, ejecutar código y mejorar respuestas en ChatGPT, disponibles para suscriptores Pro, Plus y Team.
TechCrunch
Un teléfono móvil con un gráfico en su pantalla y un fondo borroso de colores.
La imagen muestra un teléfono móvil que presenta un gráfico llamativo en su pantalla, mientras al fondo se destacan luces borrosas de colores azul y verde.

OpenAI lanza los modelos de razonamiento o3 y o4-mini

Las nuevas IA pueden analizar imágenes y ejecutar código. OpenAI presentó este miércoles dos modelos avanzados para mejorar respuestas en ChatGPT. Están disponibles para suscriptores Pro, Plus y Team, en un contexto de competencia con Google y Meta.

«Pensar con imágenes»: la gran novedad

OpenAI afirma que o3 y o4-mini son sus primeros modelos capaces de analizar diagramas o fotos borrosas durante su fase de razonamiento. «Pueden rotar o ampliar imágenes al procesarlas», destaca la compañía. Además, ejecutan código Python y buscan en la web sobre eventos actuales.

Rendimiento y precios

El modelo o3 logró un 69.1% en pruebas de codificación (SWE-bench), superando a Claude 3.7 Sonnet (62.3%). Su costo para desarrolladores es de $10 por millón de tokens de entrada. O4-mini, más económico ($1.10/millón), ofrece un equilibrio entre velocidad y precisión.

Una carrera por la supremacía en IA

La compañía busca superar a Google, Meta y Anthropic en el mercado global. Aunque OpenAI fue pionera con el modelo o1, sus rivales ya igualan sus capacidades. Sam Altman casi cancela o3 para priorizar un proyecto alternativo, pero la presión competitiva lo llevó a cambiar de decisión.

Próximos pasos: la llegada de GPT-5

OpenAI prepara el lanzamiento de o3-pro para suscriptores Pro y avanza hacia GPT-5, que unificará modelos tradicionales y de razonamiento. Según Altman, o3 y o4-mini podrían ser los últimos modelos independientes antes de esta fusión.