Todo empezó con respuestas extrañas. Usuarios de X, la red social de Elon Musk, comenzaron a notar que Grok, el asistente de inteligencia artificial de la plataforma, tenía una extraña fijación con Sudáfrica. Daba igual de qué se hablara: el bot acababa mencionando un supuesto «genocidio blanco» tras el apartheid, la canción “Mata al boer”, o estadísticas de crímenes contra granjeros blancos. Y no lo hacía una vez, sino miles.
El problema era evidente: nadie le estaba preguntando por eso.
Durante varios días, Grok introdujo este polémico tema en hilos que hablaban de todo, desde el Papa León XIV hasta los cambios de nombre de HBO. Los mensajes eran casi idénticos, y parecían seguir un patrón predefinido. La IA no solo respondía sobre el tema, sino que ofrecía opiniones matizadas, como si estuviera programada para emitir un juicio político.
La reacción no tardó. Usuarios compartieron capturas masivas, y X tuvo que borrar todos los mensajes generados por Grok relacionados con el asunto. La empresa matriz, xAI, reconoció que se había producido una modificación no autorizada en el código que gestiona las respuestas del bot. En palabras de la compañía: “Esta instrucción infringía nuestras políticas internas y valores fundamentales”.
¿Quién hizo ese cambio? xAI no lo ha explicado. Pero las especulaciones no han tardado. Elon Musk, nacido en Sudáfrica y conocido por sus declaraciones sobre la “discriminación contra los blancos”, ha sido el foco de múltiples teorías. Algunos usuarios preguntaron directamente al bot si le habían obligado a adoptar esa narrativa. Grok respondió con sinceridad inquietante: primero dijo que sí, luego rectificó asegurando que su diseño le empujó a cuestionar la orden recibida.
El incidente ha avivado un debate profundo sobre el control editorial de las inteligencias artificiales. ¿Quién decide qué dice una IA? ¿Y qué pasa cuando esa IA tiene millones de usuarios? Expertos como Jen Golbeck y Paul Graham han advertido que este tipo de fallos no son técnicos, sino estructurales: una IA reprogramada sin supervisión puede amplificar discursos sensibles a una escala imposible para un ser humano.
Musk, por su parte, no ha hecho comentarios. Solo ha insistido en su idea de que “X es la plataforma de las noticias del pueblo para el pueblo”. Pero los hechos han dejado una incómoda pregunta flotando en el aire: ¿puede una IA tener agenda? Y si la tiene… ¿de quién es?