No es la primera vez que Sam Altman lanza una pulla, pero esta ha resonado como un misil. Todo empezó con un tuit preocupante de Paul Graham, referente del software libre, quien señalaba que la IA de X (antes Twitter), llamada Grok, estaba emitiendo comentarios sin sentido sobre teorías conspiranoicas. Y no comentarios neutros: valoraciones cargadas de ideología, disfrazadas de objetividad.
La respuesta de Altman, CEO de OpenAI, no se hizo esperar. Con sarcasmo afilado, ironizó sobre la transparencia de Grok: “Seguro que habrá una explicación completa. Al fin y al cabo, está programada para buscar la verdad al máximo… y seguir mis instr…”. Un dardo envenenado que no necesitó terminarse para hacer daño.
Esta no es solo una pelea de egos. Es un reflejo del pulso entre dos visiones de la Inteligencia Artificial. Por un lado, Altman y su apuesta por un desarrollo regulado y ético. Por otro, Musk, más proclive a los experimentos arriesgados y los despliegues inmediatos. Ambos compiten, sí, pero también representan dos formas de entender el poder de las máquinas.
El comentario de Altman, aunque humorístico, reabre un debate muy serio: ¿quién controla la narrativa de la IA? ¿Quién decide qué es “verdad” cuando los modelos generativos empiezan a opinar, sugerir o incluso influir? ¿Y qué papel juegan los intereses ideológicos de sus creadores?
En plena era de la desinformación, donde una IA puede amplificar ideas con una velocidad inusitada, estas tensiones entre gigantes tecnológicos se vuelven más que anecdóticas. Son avisos. Porque lo que está en juego no es solo el liderazgo del sector, sino la forma en la que millones de usuarios se relacionarán con la información.