Durante años, la conversación sobre la inteligencia artificial se ha debatido entre el entusiasmo y la inquietud. Pero, ¿qué opinan quienes están construyendo esta tecnología desde dentro? Un extenso estudio liderado por el University College London (UCL) ha arrojado luz sobre esa pregunta. La voz de 4.260 investigadores de IA se une para hablar, con sinceridad, de lo que viene.
A grandes rasgos, la comunidad científica muestra un moderado optimismo: el 87 % considera que los beneficios de la IA igualan o superan sus riesgos. Sin embargo, ese entusiasmo no es compartido por todos. Solo un 57 % de los ciudadanos del Reino Unido —según cifras oficiales— ve las cosas del mismo modo. La brecha entre expertos y público es real, pero se acorta cuando se habla de riesgos concretos.
Y es que, cuando se entra en detalle, el relato de los investigadores no es triunfalista. Todo lo contrario. La mayoría coincide en señalar tres amenazas principales: la desinformación, el uso indebido de datos personales y el cibercrimen.
El 77 % de los científicos cree que la IA intensifica la desinformación, un problema que el 68 % de los ciudadanos también percibe. La facilidad con la que los algoritmos pueden generar y distribuir noticias falsas, especialmente en redes sociales, plantea un reto mayúsculo para las democracias modernas.
Otro punto alarmante es el uso de datos personales. Aunque muchos contenidos están disponibles en la red, solo uno de cada cuatro científicos aprueba entrenar modelos con ellos sin el consentimiento explícito de sus autores. Para casi la mitad de los encuestados, esa práctica debería estar sujeta a una autorización clara, algo que hoy por hoy no se exige en muchos países.
Frente a estas preocupaciones, surge una pregunta crucial: ¿quién debe encargarse de vigilar y regular este desarrollo? Los investigadores señalan a gobiernos, empresas tecnológicas y organismos internacionales. Pero el público prefiere una alternativa más directa: reguladores independientes con participación ciudadana.
En cuanto al futuro, la cautela predomina. Solo un 29 % cree que la IA debe avanzar lo más rápido posible. La mayoría se inclina por un camino más lento pero más seguro, donde se analicen riesgos antes de saltar a lo desconocido. Y apenas un 20 % da por inevitable el surgimiento de una inteligencia artificial general (AGI), ese horizonte temido o deseado según a quién se pregunte.
Este estudio nos recuerda que, aunque los expertos tienen fe en el potencial de la IA, no pierden de vista sus sombras. Escuchar sus voces no es solo útil: es urgente.