Limites de la inteligencia artificial: Opiniones versus hechos

Limites de la inteligencia artificial: Opiniones versus hechos

En el mundo de la inteligencia artificial, no todo es tan genial como nos lo pintan. Aunque los sistemas generativos son impresionantes, tienen sus fallos. Uno de los más críticos, como revela un estudio de la Universidad de Stanford, es su incapacidad para diferenciar entre lo que creemos y lo que es realmente cierto. Este problema podría tener consecuencias graves, especialmente en áreas sensibles como la salud o el periodismo.

El profesor James Zou, líder del estudio, se dio cuenta de que incluso los modelos más avanzados, como GPT-4, confunden creencias personales con hechos. Y esto no es un pequeño «oops», sino algo que podría llevar a diagnósticos incorrectos o a la difusión de información errónea. Un ejemplo: si alguien dice «creo que el Sol gira alrededor de la Tierra», el sistema debería reconocerlo como una creencia errónea, pero a menudo no lo hace.

La incapacidad de estos modelos para comprender el contexto humano es preocupante. Es como si, por mucho que lo intenten, no pudieran captar la sutileza del lenguaje humano. Eso nos deja en una posición incómoda, confiando en sistemas que aún están aprendiendo a «leer entre líneas».

Para ilustrar la importancia de esta distinción, los investigadores recuerdan un caso de 1994, donde ejecutivos de tabacaleras utilizaron la frase «creemos que la nicotina no es adictiva» para evitar problemas legales. Esa delgada línea entre «creer» y «saber» sigue siendo crucial hoy en día. La inteligencia artificial tiene mucho que aprender para no caer en estos errores de interpretación.