Nueva técnica para mejorar el razonamiento de modelos de IA

Investigadores proponen una técnica llamada 'búsqueda en tiempo de inferencia' para mejorar el rendimiento de modelos de IA en tareas de razonamiento, aunque expertos expresan dudas sobre su aplicabilidad en escenarios reales.
TechCrunch
Gráfico con flechas ascendentes sobre un fondo azul.
Ilustración de flechas que apuntan hacia arriba, simbolizando crecimiento o alza, con un fondo abstracto de mapa mundial en azul.

Investigadores proponen una nueva técnica para mejorar la \»razón\» de los modelos de IA, pero expertos son escépticos

Un equipo de investigadores de Google y la Universidad de California en Berkeley ha propuesto una nueva técnica llamada \»búsqueda en tiempo de inferencia\», que promete mejorar el rendimiento de los modelos de inteligencia artificial (IA) en tareas de razonamiento. Sin embargo, expertos en el campo expresan dudas sobre su aplicabilidad en escenarios reales, argumentando que la técnica solo funciona en contextos donde es fácil definir qué constituye una respuesta correcta.

¿Qué es la \»búsqueda en tiempo de inferencia\»?

La técnica, descrita en un artículo reciente, consiste en que un modelo de IA genere múltiples respuestas posibles a una consulta y luego seleccione la mejor entre ellas. Según los investigadores, este enfoque puede mejorar el rendimiento de modelos antiguos, como Gemini 1.5 Pro de Google, hasta superar a modelos más avanzados como o1-preview de OpenAI en pruebas de ciencia y matemáticas. \»La magia es que la autoverificación se vuelve más fácil a gran escala\», explicó Eric Zhao, coautor del estudio, en una serie de publicaciones en X.

Limitaciones y escepticismo

A pesar del entusiasmo inicial, varios expertos han expresado reservas sobre la utilidad de esta técnica. Matthew Guzdial, investigador de IA y profesor asistente en la Universidad de Alberta, señaló que \»si no podemos escribir código para definir lo que queremos, no podemos usar esta búsqueda\». Además, destacó que la mayoría de las consultas en el mundo real no son tan claras como las pruebas de matemáticas o ciencia, lo que limita su aplicabilidad.

Mike Cook, investigador especializado en IA del King’s College de Londres, coincidió con esta perspectiva, añadiendo que \»esto no eleva el proceso de razonamiento del modelo, sino que es una forma de trabajar alrededor de sus limitaciones\». Cook explicó que, si un modelo comete errores el 5% de las veces, revisar 200 intentos de resolver el mismo problema podría ayudar a detectar esos errores, pero no resuelve el problema de fondo.

El costo de la \»razón\» en la IA

Uno de los mayores desafíos en el desarrollo de modelos de IA capaces de razonar es el alto costo computacional. Los autores del estudio señalan que los modelos actuales pueden gastar miles de dólares en recursos de computación para resolver un solo problema matemático. La búsqueda en tiempo de inferencia podría ofrecer una solución más eficiente, pero su utilidad práctica sigue siendo cuestionada.

Contexto histórico: La evolución de las leyes de escalamiento en IA

Hasta hace un año, el enfoque dominante en el entrenamiento de modelos de IA era el escalamiento previo al entrenamiento, que consistía en entrenar modelos cada vez más grandes con conjuntos de datos cada vez más extensos. Sin embargo, en los últimos meses, han surgido dos nuevas leyes de escalamiento: el escalamiento posterior al entrenamiento y el escalamiento en tiempo de prueba. La propuesta de los investigadores de Google y Berkeley representa un intento de añadir una cuarta ley: la búsqueda en tiempo de inferencia.

Fuentes y transparencia

La información presentada en esta noticia se basa en el artículo publicado por los investigadores de Google y UC Berkeley, así como en declaraciones de expertos independientes como Matthew Guzdial y Mike Cook. También se han consultado publicaciones en redes sociales y análisis de medios especializados como TechCrunch.

Implicaciones y cierre

Aunque la búsqueda en tiempo de inferencia representa un avance interesante en la búsqueda de técnicas más eficientes para mejorar el razonamiento de los modelos de IA, su aplicabilidad en escenarios complejos y del mundo real sigue siendo limitada. Los expertos coinciden en que, mientras no se resuelvan las limitaciones inherentes de los modelos actuales, la búsqueda de nuevas técnicas de escalamiento continuará siendo un desafío clave para la industria de la inteligencia artificial.

 

Marco Monasterio, presidente del TED de Santa Cruz

TED Santa Cruz inicia capacitación masiva de jurados electorales en la capital

Imagen sin título

TED Cochabamba firma acuerdo con 10 partidos para debate electoral previo a comicios

Róger Mariaca, fiscal General del Estado, en conferencia de prensa.

Fiscalía boliviana confirma vigencia de sello rojo de Interpol para capturar a Sebastián Marset

Imagen sin título

Fiscal General de Bolivia detalla cinco procesos penales contra el narcotraficante Sebastián Marset

Imagen referencial del parque temático propuesto.

Candidato propone construir un parque temático de Gokú en El Alto

Imagen sin título

Comisión de Diputados rechaza por unanimidad eliminar la renta vitalicia a expresidentes

Los tres implicados fueron aprehendidos por la Policía.

Policía halla más de 300 frascos de mercurio en domicilio y vehículo en La Paz

Imagen sin título

Fiscalía activa alerta migratoria contra exjefa de Aduana por caso de escáneres

Santos Quispe en campaña política.

Asambleístas denuncian a partido de Santos Quispe por adulterar registros de militantes

Mujeres toman las calles en repudio de la violencia y por la reivindicación de sus derechos, en 2022.

Bolivia enfrenta deudas estructurales en derechos de las mujeres, alerta informe

El presidente del Tribunal Supremo Electoral (TSE), Gustavo Ávila.

El 95% de los candidatos subnacionales confirma asistencia a los debates electorales

Pleno de la Asamblea Legislativa en sesión

Presidente del TSE urge a la ALP designar vocales electorales de La Paz

📊 No hay datos disponibles para "Nueva técnica para mejorar el razonamiento de modelos de IA" en el período seleccionado.