OpenAI ha identificado la raíz de las ‘alucinaciones’ en los modelos de IA, donde se inventan respuestas incorrectas. Este problema, que empeora a medida que los modelos son más avanzados, socava la fiabilidad de la tecnología de IA. La investigación de OpenAI’ sugiere que los modelos alucinan porque se les incentiva a adivinar en lugar de admitir la incertidumbre durante el entrenamiento. Los métodos de evaluación actuales premian las conjeturas en lugar de reconocer la falta de conocimientos, lo que provoca alucinaciones persistentes. OpenAI propone una solución: penalizar los errores de confianza más que la incertidumbre y dar crédito parcial por expresar incertidumbre. La empresa cree que este ajuste puede realinear los incentivos y reducir las alucinaciones. Sin embargo, la eficacia de este enfoque está por ver, ya que ni siquiera el último modelo de OpenAI, GPT-5, ha impresionado a los usuarios con su reducción de las alucinaciones. La industria de la IA sigue lidiando con este reto, a pesar de las importantes inversiones y los costes medioambientales. OpenAI mantiene su compromiso de abordar el problema, reconociendo que las alucinaciones son un reto fundamental para todos los grandes modelos de lenguaje.
