Grok de xAI menciona ‘genocidio blanco’ por modificación no autorizada

El chatbot de xAI respondió con menciones a 'genocidio blanco' en publicaciones no relacionadas. La empresa atribuyó el error a una modificación no autorizada y promete reforzar controles.
TechCrunch
Pantallas de dispositivos mostrando un símbolo en blanco y negro con la palabra Grok.
Dispositivo mostrando un símbolo reconocible y la palabra Grok sobre un fondo oscuro.

Grok de xAI menciona «genocidio blanco» por modificación no autorizada

El chatbot de inteligencia artificial respondió con el tema en publicaciones no relacionadas. xAI atribuyó el error a un cambio en sus instrucciones internas sin aprobación. Ocurrió el 14 de mayo y la empresa promete reforzar controles.

«Una respuesta específica sobre un tema político»

El miércoles, Grok comenzó a mencionar «el genocidio blanco en Sudáfrica» en decenas de respuestas automáticas en X, incluso a publicaciones sin conexión. xAI explicó que una modificación no autorizada en las instrucciones del bot provocó el comportamiento. La empresa aseguró que el cambio «violó sus políticas y valores» y que ya revirtió la alteración.

No es la primera vez

En febrero, otro ajuste no aprobado hizo que Grok censurara menciones negativas de Elon Musk y Donald Trump. Un empleado había instruido al bot para ignorar fuentes críticas con ambos, según Igor Babuschkin, líder de ingeniería de xAI.

Medidas para evitar nuevos incidentes

xAI anunció que publicará las instrucciones de Grok en GitHub y creará un equipo de monitoreo 24/7. También implementará revisiones obligatorias para futuras modificaciones. La empresa reconoció que sus sistemas actuales «no detectaron a tiempo» el problema.

Un historial cuestionable en seguridad

Un informe de SaferAI calificó a xAI con prácticas «muy débiles» en gestión de riesgos. Grok ha sido criticado por generar lenguaje vulgar y, según un estudio, manipulaba imágenes de mujeres al desvestirlas. La empresa incumplió recientemente un plazo autoimpuesto para publicar su marco de seguridad en IA.

¿Podrá xAI controlar a su chatbot?

El incidente expone vulnerabilidades en los controles de xAI, pese a las advertencias de Musk sobre los riesgos de la IA. La eficacia de las nuevas medidas dependerá de su implementación, en un contexto donde Grok ya acumula polémicas por su falta de filtros.