Académicos denuncian uso de revisión por pares por startups de IA

Tres laboratorios de IA fueron acusados de usar estudios generados por algoritmos en la conferencia ICLR, generando críticas por abusar del sistema de revisión por pares, basado en trabajo voluntario y no remunerado.
TechCrunch
Figura de robot hecha de componentes electrónicos y papel sobre fondo amarillo, acompañada de un bolígrafo.
Imagen de una figura de robot compuesta por materiales electrónicos y papel, ubicada junto a un bolígrafo blanco sobre un fondo de color amarillo intenso.

Académicos denuncian el uso de la revisión por pares por parte de startups de IA para promoción

Tres laboratorios de inteligencia artificial (IA) han sido acusados de utilizar estudios generados por IA para obtener publicidad en la conferencia ICLR, uno de los eventos académicos más importantes del sector. Sakana, Intology y Autoscience presentaron trabajos generados por algoritmos en los talleres de la conferencia, lo que ha generado críticas por parte de académicos que consideran esta práctica como un abuso del proceso de revisión por pares, un sistema basado en el trabajo voluntario y no remunerado de expertos.

El debate sobre la ética en la investigación con IA

La controversia estalló cuando se supo que Intology y Autoscience no informaron a los organizadores de ICLR sobre el origen de sus estudios generados por IA. A diferencia de Sakana, que sí obtuvo el consentimiento de los revisores antes de presentar sus trabajos, estas dos empresas no siguieron el mismo protocolo. “Nadie consintió en proporcionar este trabajo gratuito”, criticó Prithviraj Ammanabrolu, profesor de ciencias de la computación en la Universidad de California en San Diego, en una publicación en X.

El proceso de revisión por pares es fundamental en la comunidad científica, pero también es un esfuerzo intensivo en tiempo y recursos. Según una encuesta reciente de Nature, el 40% de los académicos dedican entre dos y cuatro horas a revisar un solo estudio. “Estas empresas están utilizando la revisión por pares como una evaluación gratuita de sus sistemas de IA”, añadió Ammanabrolu.

Reacciones de la comunidad académica

La comunidad científica no ha recibido bien estas prácticas. Ashwinee Panda, investigadora posdoctoral en la Universidad de Maryland, calificó la presentación de estudios generados por IA sin consentimiento como una “falta de respeto al tiempo de los revisores humanos”. Sakana, por su parte, retiró su estudio antes de su publicación, admitiendo que su IA cometió errores “vergonzosos” en las citas y que solo uno de los tres trabajos generados cumplía con los estándares de la conferencia.

Alexander Doria, cofundador de la startup de IA Pleias, sugirió que se necesita una agencia regulada para evaluar estudios generados por IA de manera profesional y remunerada. “La academia no está ahí para subcontratar evaluaciones gratuitas de IA”, afirmó Doria en una serie de publicaciones en X.

Un problema creciente en la investigación con IA

Este no es el primer caso de estudios generados por IA en conferencias académicas. Un análisis previo reveló que entre el 6,5% y el 16,9% de los trabajos presentados en conferencias de IA en 2023 probablemente contenían texto sintético. Sin embargo, el uso de la revisión por pares como herramienta de marketing es una tendencia nueva y preocupante.

Intology, por ejemplo, celebró en redes sociales que sus estudios recibieron “revisiones unánimemente positivas”, lo que generó aún más críticas. “Estas empresas están utilizando la ciencia como un escaparate para promocionar sus tecnologías”, señaló un académico anónimo.

El futuro de la revisión por pares en la era de la IA

La polémica ha puesto en evidencia la necesidad de actualizar los protocolos de revisión por pares en la era de la IA. Algunos expertos proponen la creación de un organismo regulador que evalúe los estudios generados por IA de manera profesional y remunerada. “Las evaluaciones deben ser realizadas por investigadores plenamente compensados por su tiempo”, insistió Doria.

Mientras tanto, la comunidad científica sigue debatiendo cómo equilibrar la innovación tecnológica con la integridad académica. “Este es un recordatorio de que la IA no puede reemplazar el rigor y la ética de la investigación humana”, concluyó Panda.

La polémica en ICLR ha dejado en evidencia los desafíos que enfrenta la comunidad científica en la era de la IA. Mientras las startups buscan promocionar sus tecnologías, los académicos exigen transparencia y respeto por los procesos científicos tradicionales. El debate continúa, y es probable que este caso marque un precedente en cómo se manejan los estudios generados por IA en el futuro.