Investigadores proponen una nueva técnica para mejorar el \»razonamiento\» de la inteligencia artificial
Un equipo de investigadores de Google y la Universidad de California en Berkeley ha presentado un estudio que sugiere una nueva forma de mejorar el rendimiento de los modelos de inteligencia artificial (IA) mediante una técnica llamada \»búsqueda en tiempo de inferencia\». Este método, que permite a los modelos generar múltiples respuestas y seleccionar la mejor, ha sido descrito como una posible cuarta ley de escalabilidad en el campo de la IA. Sin embargo, algunos expertos expresan escepticismo sobre su aplicabilidad en escenarios complejos.
¿Qué es la \»búsqueda en tiempo de inferencia\»?
La técnica propuesta consiste en que un modelo de IA genere cientos de respuestas posibles a una consulta y luego seleccione la más adecuada mediante un proceso de autoverificación. Según los investigadores, este enfoque puede mejorar el rendimiento de modelos antiguos, como Gemini 1.5 Pro de Google, hasta superar a sistemas más avanzados en tareas de ciencia y matemáticas. \»La magia es que la autoverificación se vuelve más fácil a mayor escala\», explicó Eric Zhao, coautor del estudio, en una publicación en X.
Escepticismo entre los expertos
A pesar del entusiasmo inicial, algunos investigadores independientes han cuestionado la utilidad de esta técnica en situaciones donde no existe una función de evaluación clara. Matthew Guzdial, profesor de la Universidad de Alberta, señaló que \»si no podemos definir lo que queremos con código, no podemos usar esta búsqueda\», lo que limita su aplicación en interacciones de lenguaje general. Mike Cook, investigador del King’s College London, coincidió en que este método no eleva el proceso de razonamiento de la IA, sino que \»es una forma de sortear las limitaciones de una tecnología propensa a errores\».
Implicaciones para la industria de la IA
La búsqueda de técnicas de escalabilidad más eficientes es crucial para la industria de la IA, ya que los modelos actuales pueden consumir miles de dólares en recursos computacionales para resolver un solo problema matemático. Aunque la \»búsqueda en tiempo de inferencia\» podría reducir estos costos, su aplicabilidad en escenarios complejos sigue siendo un tema de debate. \»El estudio se centra en casos donde no hay un verificador de verdad absoluta, lo que abre nuevas posibilidades\», defendió Zhao.
Contexto histórico: Las leyes de escalabilidad en la IA
Hasta hace un año, la escalabilidad preentrenamiento era la norma en la industria, basada en entrenar modelos cada vez más grandes con conjuntos de datos más extensos. Sin embargo, la aparición de técnicas como la escalabilidad postentrenamiento y la escalabilidad en tiempo de prueba ha diversificado las estrategias. La propuesta de una cuarta ley, centrada en la búsqueda durante la inferencia, refleja la constante evolución del campo.
Fuentes y transparencia
El estudio fue publicado por investigadores de Google y UC Berkeley, y sus hallazgos han sido discutidos en plataformas como X y TechCrunch. Las declaraciones de expertos independientes, como Matthew Guzdial y Mike Cook, ofrecen una perspectiva crítica que equilibra el debate.
La \»búsqueda en tiempo de inferencia\» representa un avance prometedor, pero su utilidad práctica dependerá de su capacidad para adaptarse a escenarios complejos y sin funciones de evaluación claras. Mientras tanto, la industria de la IA continúa explorando nuevas formas de mejorar la eficiencia y el rendimiento de sus modelos, en un esfuerzo por acercarse cada vez más a un razonamiento similar al humano.