Alucinan porque les premiamos por adivinar: OpenAI explica por qué modelos como GPT-5 todavía se inventan cosas

Publicado el 08/09/2025 por Diario Tecnología
Artículo original

Alucinan porque les premiamos por adivinar: OpenAI explica por qué modelos como GPT-5 todavía se inventan cosas

El debate sobre las "alucinaciones" de la inteligencia artificial, esas respuestas seguras, pero completamente falsas que generan los modelos de lenguaje, ha estado sobre la mesa desde el auge de ChatGPT. Mientras algunos consultores y autoproclamados gurús prometían soluciones mágicas para eliminarlas, los expertos más cautos advertían de su naturaleza inherente. 

Ahora, OpenAI, en un ejercicio de transparencia, ha zanjado el debate con un nuevo paper que confirma lo que muchos sospechaban: las alucinaciones son, por ahora, un mal necesario.

Como un tipo test. Para entenderlo, OpenAI propone una analogía muy clara: un examen con múltiples opciones. Si un estudiante no sabe la respuesta, dejarla en planta le garantiza que ni le sume ni le reste puntuación (porque se puede suspender fácilmente arriesgándose al azar). Pero en el caso de la inteligencia artificial siempre se arriesga con la respuesta que da porque no puede decir 'no lo sé' como si ocurre con un estudiante. 

Si tienes cuatro opciones por delante, hay un 25% de posibilidades de acertar y a este pequeño resquicio es al que se aferra la inteligencia artificial de ChatGPT para ofrecer una respuesta. Y la culpa es de los sistemas de evaluación de las inteligencias artificiales. Estos valoran siempre que la IA dé una respuesta, aunque literalmente se las acabe inventando. 

Un modelo que dice "no sé" es penalizado, mientras que uno que "adivina" y acierta por casualidad es recompensado. A gran escala, esto crea modelos que priorizan dar una respuesta, cualquiera, antes que admitir su propia incertidumbre.

La propia OpenAI explica con un ejemplo lo que ocurre. Apunta a que si suponemos que a un modelo le pedimos que adivine la fecha de cumpleaños de una persona, tiene una posibilidad entre 365 de tener razón. Decir 'no lo sé' le garantiza cero puntos. 

Qué dice el experto. Leon Palafox, profesor en la Universidad Panamericana Ciudad de México, apunta en X a lo siguiente: 

Según un nuevo paper de OpenAI  las alucinaciones son inevitables en los LLMs. No existe una forma teórica de eliminarlas — a menos que aceptemos que el modelo diga “no sé”. Y aun así, en escenarios abiertos seguirán apareciendo. Así que acuérdate de esto la próxima vez que un consultor te diga que puede “eliminar” las alucinaciones. A lo mucho se pueden gestionar. Pero erradicarlas por completo… eso no es cómo funciona esta tecnología.


Los datos. A través de una ilustradora tabla en su paper, OpenAI ha querido comparar las tasas de error de sus principales modelos de IA. Y aunque el modelo antiguo (04-mini) tiene una tasa de acierto ligeramente superior, su tasa de errores es abrumadoramente más alta, de un 75%. Todo ello porque casi nunca se abstiene de responder o decir 'no lo sé'. 

El nuevo modelo, aunque acierta un poco menos, es mucho más fiable porque "sabe" cuándo no sabe la respuesta y su tasa de alucinaciones se desploma al 26%. El problema es que las tablas de clasificación y los benchmarks que dominan la industria siguen premiando la primera estrategia, la del "adivinador afortunado".

El origen del problema. Para poder entender el porqué hay que saber cómo funciona una IA: con la predicción de la siguiente palabra. Los grandes modelos siguen un proceso de entrenamiento muy importante donde se analizan grandes cantidades de textos. Esto hace por ejemplo, que sea muy raro que una IA comenta faltas ortográficas debido a que sigue reglas consistentes. Y en todo momento la IA está prediciendo la siguiente palabra a la hora de generar un gran texto. 

"A diferencia de los problemas tradicionales de aprendizaje automático, no hay etiquetas “verdadero/falso” adjuntas a cada declaración. El modelo sólo ve ejemplos positivos de lenguaje fluido y debe aproximarse a la distribución general.", explica OpenAI. 

Sin embargo, los datos fácticos, como la fecha de nacimiento de una persona o el título de su tesis doctoral, son arbitrarios. No siguen un patrón predecible. Cuando un modelo no tiene un dato concreto, en lugar de detenerse, su entrenamiento lo empuja a "rellenar el hueco" con la secuencia de palabras que le parece más plausible estadísticamente. El resultado es una respuesta que suena convincente, pero que es falsa.

Gestionar, no eliminar. La conclusión de OpenAI es clara y resuena con la advertencia de Palafox: debemos ser escépticos ante cualquiera que prometa "eliminar" las alucinaciones. La solución no pasa por crear modelos más y más grandes con la esperanza de que la precisión llegue al 100% (algo imposible, pues hay preguntas inherentemente incontestables), sino por cambiar el paradigma.

La clave está en recompensar la "humildad" de la IA. Es necesario rediseñar las métricas de evaluación para que penalicen duramente los errores confiados y den valor a las abstenciones. Como afirma OpenAI, "un modelo pequeño puede conocer mejor sus límites". De esta manera, la solución pasaría básicamente por el hecho de que la IA reconozca que no conoce algo antes de generar algo inventado 'por cumplir'. 

Mitos derribados. El artículo de OpenAI hace hincapié en la necesidad de desmontar algunas ideas preconcebidas sobre este problema. Algunos de estos mitos sobre las alucinaciones son los siguientes: 

  • "Las alucinaciones desaparecerán cuando la precisión llegue al 100%": en realidad la precisión nunca llegará al 100% porque hay preguntas inherentemente imposibles de responder. 
  • "Son inevitables": para OpenAI estos errores no lo son porque los modelos pueden ser entrenados para abstenerse cuando no están seguros, aunque ellos todavía no lo han hecho. 
  • "Evitarlas requiere modelos gigantescos": su realidad es que a veces es más fácil para un modelo pequeño reconocer sus limitaciones y saber que no se sabe algo. 

Los gurús siguen 'solucionando'. Pese a que la propia OpenAI, una de las mayores empresas en este campo, reconoce que las alucinaciones son reales y que a día de hoy no se pueden controlar las redes sociales se llenan de 'expertos' defendiendo lo contrario. 

Paradójicamente, el mismo día que OpenAI publicada este paper, un usuario compartía un prompt creado para que ChatGPT no pueda alucinar nunca más. Y como este hay una gran cantidad de personas que se creen auténticos expertos en IA y que tienen más conocimientos que los propios ingenieros de modelos como GPT. Pero ante este caso hay que desconfiar de todos los prompts 'milagrosos' que se pueden ver en redes sociales. 

En Genbeta | He probado Comet y siento que estoy ante el navegador del futuro. A Chrome se le ha puesto cara de Internet Explorer






utm_campaign=08_Sep_2025"> José Alberto Lizana .