Las alucinaciones en los modelos de inteligencia artificial no solo generan respuestas incorrectas, sino que además lo hacen con una confianza tan convincente que pueden llevar a los usuarios a creer en información falsa. Esta problemática ha llamado la atención de la comunidad tecnológica por las consecuencias que puede acarrear en la fiabilidad y uso ético de la IA .

OpenAI ha publicado recientemente un informe exhaustivo en el que expone los factores técnicos y estadísticos detrás de este fenómeno, así como las acciones implementadas para reducirlo, especialmente en el desarrollo de GPT-5 .

Por qué las IAs producen alucinaciones

El informe de OpenAI sostiene que las alucinaciones en IA no son un fallo inexplicable, sino una consecuencia directa de la manera en que se entre

See Full Page