Hace apenas unos días, en un evento de NVIDIA, Yann LeCun, uno de los grandes nombres de la inteligencia artificial y científico jefe en Meta, soltó una frase cargada de hartazgo: «Estoy harto del término inteligencia artificial general». No fue una declaración gratuita, sino la expresión de una frustración creciente contra voces muy poderosas en el sector, como Elon Musk o Sam Altman.
Ambos gurús tecnológicos no se cansan de advertirnos sobre un futuro dominado por una AGI —una inteligencia artificial capaz de hacer todo lo que un ser humano hace, pero mejor y más rápido—. Hablan de amenazas, de futuros distópicos, de un apocalipsis cibernético a lo «Terminator». Pero, ¿y si todo esto fuera simplemente una exageración?
LeCun, que sabe bastante del tema, sostiene una postura radicalmente diferente: la IA no es ni será en mucho tiempo una entidad consciente. Para él, pensar en inteligencias que razonan, sienten o deciden como humanos está muy lejos de nuestra realidad tecnológica actual… y de cualquier futuro previsible. La IA, asegura, no tendrá la capacidad de comprensión ni de planificación a largo plazo que caracteriza al ser humano.
Y no sólo niega esa posibilidad, sino que también señala un peligro mayor: la confusión del público. «Asociar la IA a escenarios apocalípticos solo genera miedo y desinformación», advierte. LeCun ve a la IA como una herramienta valiosa para asistir a las personas, especialmente en tareas repetitivas y mecánicas, no como un sustituto ni un competidor de la humanidad.
Su perspectiva invita a mirar la tecnología con pragmatismo. La IA cambiará muchos aspectos de nuestra vida, sí, pero no tomará el control del mundo. El futuro, según LeCun, estará en el equilibrio: aprovechar la fuerza de la tecnología sin dejarse arrastrar por fantasías catastrofistas.
Una visión quizás menos emocionante, pero mucho más realista. Y, sobre todo, una llamada a dejar de imaginar mundos de ciencia ficción… al menos por ahora.