OpenAI lanza los modelos de razonamiento o3 y o4-mini
Las nuevas IA pueden analizar imágenes y ejecutar código. OpenAI presentó este miércoles dos modelos avanzados para mejorar respuestas en ChatGPT. Están disponibles para suscriptores Pro, Plus y Team, en un contexto de competencia con Google y Meta.
«Pensar con imágenes»: la gran novedad
OpenAI afirma que o3 y o4-mini son sus primeros modelos capaces de analizar diagramas o fotos borrosas durante su fase de razonamiento. «Pueden rotar o ampliar imágenes al procesarlas», destaca la compañía. Además, ejecutan código Python y buscan en la web sobre eventos actuales.
Rendimiento y precios
El modelo o3 logró un 69.1% en pruebas de codificación (SWE-bench), superando a Claude 3.7 Sonnet (62.3%). Su costo para desarrolladores es de $10 por millón de tokens de entrada. O4-mini, más económico ($1.10/millón), ofrece un equilibrio entre velocidad y precisión.
Una carrera por la supremacía en IA
La compañía busca superar a Google, Meta y Anthropic en el mercado global. Aunque OpenAI fue pionera con el modelo o1, sus rivales ya igualan sus capacidades. Sam Altman casi cancela o3 para priorizar un proyecto alternativo, pero la presión competitiva lo llevó a cambiar de decisión.
Próximos pasos: la llegada de GPT-5
OpenAI prepara el lanzamiento de o3-pro para suscriptores Pro y avanza hacia GPT-5, que unificará modelos tradicionales y de razonamiento. Según Altman, o3 y o4-mini podrían ser los últimos modelos independientes antes de esta fusión.