Nueva técnica para mejorar el razonamiento de la inteligencia artificial

Investigadores proponen una técnica llamada 'búsqueda en tiempo de inferencia' para mejorar el rendimiento de modelos de IA, aunque algunos expertos expresan escepticismo sobre su aplicabilidad en escenarios complejos.
TechCrunch
Flechas y gráfico sobre un fondo azul con un mapa del mundo.
Representación abstracta del crecimiento económico con flechas ascendentes en un mapa mundial.

Investigadores proponen una nueva técnica para mejorar el \»razonamiento\» de la inteligencia artificial

Un equipo de investigadores de Google y la Universidad de California en Berkeley ha presentado un estudio que sugiere una nueva forma de mejorar el rendimiento de los modelos de inteligencia artificial (IA) mediante una técnica llamada \»búsqueda en tiempo de inferencia\». Este método, que permite a los modelos generar múltiples respuestas y seleccionar la mejor, ha sido descrito como una posible cuarta ley de escalabilidad en el campo de la IA. Sin embargo, algunos expertos expresan escepticismo sobre su aplicabilidad en escenarios complejos.

¿Qué es la \»búsqueda en tiempo de inferencia\»?

La técnica propuesta consiste en que un modelo de IA genere cientos de respuestas posibles a una consulta y luego seleccione la más adecuada mediante un proceso de autoverificación. Según los investigadores, este enfoque puede mejorar el rendimiento de modelos antiguos, como Gemini 1.5 Pro de Google, hasta superar a sistemas más avanzados en tareas de ciencia y matemáticas. \»La magia es que la autoverificación se vuelve más fácil a mayor escala\», explicó Eric Zhao, coautor del estudio, en una publicación en X.

Escepticismo entre los expertos

A pesar del entusiasmo inicial, algunos investigadores independientes han cuestionado la utilidad de esta técnica en situaciones donde no existe una función de evaluación clara. Matthew Guzdial, profesor de la Universidad de Alberta, señaló que \»si no podemos definir lo que queremos con código, no podemos usar esta búsqueda\», lo que limita su aplicación en interacciones de lenguaje general. Mike Cook, investigador del King’s College London, coincidió en que este método no eleva el proceso de razonamiento de la IA, sino que \»es una forma de sortear las limitaciones de una tecnología propensa a errores\».

Implicaciones para la industria de la IA

La búsqueda de técnicas de escalabilidad más eficientes es crucial para la industria de la IA, ya que los modelos actuales pueden consumir miles de dólares en recursos computacionales para resolver un solo problema matemático. Aunque la \»búsqueda en tiempo de inferencia\» podría reducir estos costos, su aplicabilidad en escenarios complejos sigue siendo un tema de debate. \»El estudio se centra en casos donde no hay un verificador de verdad absoluta, lo que abre nuevas posibilidades\», defendió Zhao.

Contexto histórico: Las leyes de escalabilidad en la IA

Hasta hace un año, la escalabilidad preentrenamiento era la norma en la industria, basada en entrenar modelos cada vez más grandes con conjuntos de datos más extensos. Sin embargo, la aparición de técnicas como la escalabilidad postentrenamiento y la escalabilidad en tiempo de prueba ha diversificado las estrategias. La propuesta de una cuarta ley, centrada en la búsqueda durante la inferencia, refleja la constante evolución del campo.

Fuentes y transparencia

El estudio fue publicado por investigadores de Google y UC Berkeley, y sus hallazgos han sido discutidos en plataformas como X y TechCrunch. Las declaraciones de expertos independientes, como Matthew Guzdial y Mike Cook, ofrecen una perspectiva crítica que equilibra el debate.

La \»búsqueda en tiempo de inferencia\» representa un avance prometedor, pero su utilidad práctica dependerá de su capacidad para adaptarse a escenarios complejos y sin funciones de evaluación claras. Mientras tanto, la industria de la IA continúa explorando nuevas formas de mejorar la eficiencia y el rendimiento de sus modelos, en un esfuerzo por acercarse cada vez más a un razonamiento similar al humano.

 

Operativo de la ANH y la FELCC en La Paz.

ANH y FELCC desarticulan acopio ilegal de 14 mil litros de diésel en La Paz

El funcionario aprehendido.

Fiscalía de Cochabamba confirma aprehensión de exfuncionario de YPFB por corrupción

Imagen sin título

Rescatan con vida a los dos ocupantes de una avioneta que se estrelló en Trinidad, Bolivia

Daniel Aruebose, fotografiado cuando tenia aproximadamente dos anos

Policía irlandesa investiga como homicidio la muerte del niño Daniel Aruebose

Luis Arce al momento de su aprehensión.

Fiscalía imputa a Luis Arce y pide su reclusión en centro de menores

Nicolas Maduro y Luiz Inácio Lula da Silva.

Lula habla con Maduro tras conversar con Trump sobre sanciones a Brasil

Paola Prudencio, presidenta del Tribunal Constitucional Plurinacional.

Presidenta del TCP denuncia gasto de 4 millones en viáticos por magistrados prorrogados

Director del Parque Nacional Toro Toro, Rolando Zapana.

Director de Toro Toro destaca el papel clave de los guías locales para la conservación

Captura de pantalla de la declaración del viceministro.

Gobierno boliviano anuncia subvención directa a la harina para pan tras casos de corrupción

Imagen sin título

Comisión Mixta recibe impugnaciones de postulantes inhabilitados al TSE

Imagen sin título

Avioneta sufre aterrizaje forzoso en Trinidad; dos ocupantes ilesos a la espera de rescate

Imagen sin título

Fiscalía imputa a Luis Arce y solicita tres meses de detención preventiva