Grok como verificador de hechos en X preocupa por desinformación

El asistente de IA Grok, usado en X para verificar información, genera preocupación por su potencial para propagar desinformación, especialmente en temas políticos.
TechCrunch
Manos robóticas con una lupa y un bolígrafo sobre documentos.
Dos manos robóticas interactúan con documentos utilizando una lupa y un bolígrafo.

El uso de Grok como verificador de hechos en X genera preocupación por la desinformación

El asistente de inteligencia artificial Grok, desarrollado por xAI, está siendo utilizado por usuarios de la plataforma X (antes Twitter) para verificar información, lo que ha despertado preocupación entre expertos en fact-checking. La herramienta, que responde preguntas de manera automatizada, podría estar contribuyendo a la propagación de desinformación debido a su capacidad para generar respuestas convincentes, aunque no siempre precisas. Este fenómeno se ha observado especialmente en países como India, donde los usuarios recurren a Grok para validar afirmaciones políticas.

¿Puede un bot reemplazar a los verificadores humanos?

Grok, al igual que otros asistentes de IA como ChatGPT o Gemini, tiene la capacidad de generar respuestas que suenan convincentes, incluso cuando son incorrectas. Angie Holan, directora de la Red Internacional de Verificación de Hechos (IFCN), advierte que el peligro radica en la apariencia de naturalidad y autenticidad de estas respuestas, lo que puede llevar a los usuarios a confiar en información errónea. \»Los asistentes de IA son muy buenos usando lenguaje natural, pero eso no garantiza que sus respuestas sean correctas\», explicó Holan a TechCrunch.

Por su parte, Pratik Sinha, cofundador del sitio de verificación de hechos Alt News, subraya que la calidad de las respuestas de Grok depende de los datos con los que ha sido entrenado, lo que abre la puerta a posibles manipulaciones. \»No hay transparencia en cómo se alimenta a estos sistemas, y eso es peligroso\», afirmó.

Riesgos de la desinformación generada por IA

Uno de los mayores riesgos es que Grok puede \»alucinar\» respuestas, es decir, inventar información para completar una respuesta. Anushka Jain, investigadora del Digital Futures Lab, señaló que esta característica, común en los modelos de IA, puede ser especialmente problemática cuando se trata de temas sensibles o políticos. Además, a diferencia de los verificadores humanos, que utilizan múltiples fuentes y asumen responsabilidad por sus hallazgos, Grok no ofrece garantías de precisión ni transparencia en sus fuentes.

La accesibilidad pública de Grok en X también es motivo de preocupación. A diferencia de otros chatbots que se usan en entornos privados, las respuestas de Grok son visibles para todos los usuarios de la plataforma, lo que amplifica el riesgo de que la desinformación se propague rápidamente. Este fenómeno ya ha tenido consecuencias graves en el pasado, como los linchamientos en India provocados por cadenas de mensajes falsos en WhatsApp.

El futuro de la verificación de hechos en la era de la IA

A pesar de los avances en IA, los expertos coinciden en que estas herramientas no pueden reemplazar a los verificadores humanos. Holan destacó que, aunque muchas respuestas de Grok pueden ser correctas, un pequeño porcentaje de errores puede tener consecuencias devastadoras. \»Los modelos de IA tienen tasas de error de hasta el 20%, y cuando se equivocan, lo hacen de manera significativa\», afirmó.

Mientras tanto, plataformas como X y Meta están explorando alternativas como las \»Notas de la Comunidad\», un sistema de verificación colaborativa. Sin embargo, la precisión y la responsabilidad de los verificadores humanos siguen siendo insustituibles. \»Eventualmente, veremos un retorno hacia la verificación humana\», pronosticó Holan.

El debate sobre el uso de IA para la verificación de hechos sigue abierto, pero una cosa es clara: la transparencia y la responsabilidad son clave para evitar la propagación de desinformación. Mientras Grok y otras herramientas similares continúan evolucionando, los usuarios deben ser conscientes de sus limitaciones y confiar en fuentes verificadas para obtener información precisa.