Bruselas intenta regular la IA, pero no logra contentar a los 1.000 grupos implicados

Bruselas intenta regular la IA, pero no logra contentar a los 1.000 grupos implicados

En Bruselas, una batalla silenciosa pero decisiva se está librando entre bastidores. No es por un tratado ni por un presupuesto, sino por algo mucho más intangible y, a la vez, trascendental: el futuro de la inteligencia artificial en Europa.

El tercer borrador del Código de Buenas Prácticas sobre IA de propósito general (GPAI), publicado recientemente, ha reavivado un complejo debate. Este documento, destinado a convertirse en una guía clave para garantizar el cumplimiento de la nueva Ley de Inteligencia Artificial de la UE, pretende establecer una base común para que empresas, ciudadanos y gobiernos interactúen de forma segura con esta tecnología disruptiva. Pero su aprobación está lejos de ser sencilla.

Más de 1.000 grupos de presión —entre ellos grandes empresas tecnológicas, ONG, asociaciones de derechos de autor y organizaciones civiles— han mostrado su preocupación o directamente su rechazo a varios puntos del borrador. Aunque el texto ha sido modificado en múltiples ocasiones, las críticas no cesan: desde el debilitamiento de las obligaciones en derechos de autor, hasta la escasa protección frente a la discriminación o la falta de indicadores clave de cumplimiento.

“Se ha suavizado demasiado para contentar a la industria”, lamentan algunas ONG. Por su parte, los defensores de los derechos de autor denuncian que ya no se exige transparencia sobre el uso de contenidos protegidos. El riesgo, según ellos, es que se normalice el uso indebido de obras sin autorización previa.

Al frente del proceso, trece expertos independientes —no remunerados— han asumido la tarea técnica de redactar este código. Entre ellos, Marietje Schaake, que lidera la parte dedicada a seguridad y protección, defiende que han hecho todo lo posible para recoger aportaciones diversas. “No podemos abordarlo todo, pero hemos escuchado a todos”, afirma.

El borrador también ha generado tensiones en torno a su impacto en la competitividad digital de Europa. Algunos actores temen que unas reglas demasiado rígidas dificulten la innovación, mientras que otros sostienen que las exigencias actuales siguen sin garantizar un desarrollo ético de la IA.

Para la Comisión Europea, que promueve este código como parte de su apuesta por una IA segura, competitiva y respetuosa con los derechos, el equilibrio es difícil. Quiere normas claras, pero también facilitar el crecimiento del sector.

Lo que está en juego no es menor: el código podría marcar la pauta a nivel mundial en un territorio aún sin cartografiar. La pregunta es si Europa logrará construir ese mapa común… sin dejar a nadie fuera del camino.