Nick Bostrom, el filósofo sueco que predijo el impacto de la inteligencia artificial en su libro «Superinteligencia», sigue siendo una de las voces más influyentes en este tema. Durante una reciente entrevista, Bostrom reflexionaba sobre la rapidez con la que la IA ha evolucionado. «Es casi humano», dice, refiriéndose a cómo los modelos actuales de IA pueden incluso compartir algunas peculiaridades humanas. Pero aquí viene el gran ‘pero’: Bostrom advierte sobre los riesgos significativos que este desarrollo conlleva.
La conversación con Chris Williamson en su podcast no dejó indiferente a nadie. Bostrom plantea la posibilidad de que, si el desarrollo de la IA sigue este ritmo frenético, podríamos enfrentarnos a una especie de «explosión» de superinteligencia. ¿Y qué pasa entonces? Según Bostrom, si esto ocurre de forma gradual, hay margen para que los gobiernos y la sociedad lo regulen. Pero si sucede de repente, el poder podría quedar en manos de unos pocos.
Lo que más me llamó la atención fue su reflexión final: una prohibición total de la IA no es deseable. La inteligencia artificial es un portal hacia la transformación de la humanidad, pero conlleva riesgos, y cuanto más despacio avancemos, más tiempo tendremos para lidiar con ellos. Para Bostrom, es crucial buscar resultados positivos y beneficios mutuos antes de llegar a posibles conflictos. ¿Estamos preparados para este cambio? La pregunta queda en el aire, mientras seguimos avanzando en este camino incierto.

