Meta, DeepSeek y xAI están en el punto de mira por ser consideradas las menos seguras contra riesgos catastróficos. El Future of Life Institute ha publicado su AI Safety Index y, spoiler alert, las calificaciones no son precisamente brillantes. Anthropic, OpenAI y Google DeepMind lideran la tabla, aunque con notas mediocres. Pero, hablemos claro, Meta y compañía no salen bien paradas.
El informe evalúa cosas como la gestión de daños actuales y la planificación de seguridad existencial, es decir, cómo prevenir desastres potenciales. Y aquí, Meta no cumple con las expectativas. Su transparencia sobre pruebas de riesgo es escasa, y eso deja un mal sabor de boca.
El índice no mide el éxito comercial, sino el trabajo esencial de seguridad. Pide hojas de ruta para detener despliegues peligrosos y acceso a evaluaciones externas. Y ya que estamos, ¿quién encendería una central nuclear sin protocolos de seguridad probados? Pues eso.
Meta presume de ambición hacia la superinteligencia, pero no presenta suficiente evidencia pública de evaluaciones rigurosas. Y DeepSeek, con su enfoque en el código abierto, no puntúa bien en un índice que valora la divulgación y el control.
El mensaje es claro: ninguna compañía tiene un plan creíble para controlar un sistema que escapa a los mecanismos actuales. Si la industria quiere alcanzar sistemas de nivel humano, no bastan promesas, hacen falta compromisos auditables. La seguridad solo cuenta si se puede demostrar antes de que haga falta. Y ahí es donde Meta debe pisar el freno.

