A veces, uno no puede evitar pensar que la inteligencia artificial es como ese iceberg que todos vemos venir, pero del que nadie se aparta. Según McKinsey, la inversión en proyectos de IA alcanzará cifras astronómicas para 2030, y con ello, un consumo energético que podría hacernos replantear algunas cosas. Pero el verdadero problema, me temo, son las aspiraciones de alcanzar una Superinteligencia Artificial (ASI).
Estamos hablando de una inteligencia capaz de hacer la mayoría de las tareas humanas, y algunos dicen que la alcanzaremos entre 2040 y 2050. Pero, ¿a qué precio? La idea es que la IA se vuelva más segura, con legislación adecuada y buenas prácticas. Pero, en un mundo donde cada mejora tecnológica es una ventaja competitiva, ¿quién va a querer frenar?
Hay riesgos claros, como la trifecta letal: IA expuesta a datos no verificados, acceso a datos privados y la capacidad de comunicarse externamente. Me pregunto, ¿realmente estamos preparados para manejar eso? Algunos destellos de prudencia aparecen, como Apple retrasando lanzamientos por seguridad o Google proponiendo modelos separados de IA. Pero son solo gotas en un océano.
En el ámbito geopolítico, la competencia por la supremacía en IA es feroz. Estados Unidos y China parecen estar en una carrera hacia quién obtiene primero la ASI. Sin embargo, el camino está lleno de desafíos éticos y existenciales. En la guerra fría, la disuasión nuclear funcionó, pero con la IA, ¿podremos decir lo mismo?
La filosofía siempre llega tarde para explicar ciertas situaciones, y me temo que con la IA, esto es más cierto que nunca. Nos enfrentamos a un futuro incierto, donde la sabiduría puede llegar demasiado tarde. En esta era digital, los días son más largos y las noches más cortas, dejando poco tiempo para la reflexión.

