OpenAI telah mengidentifikasi akar penyebab ‘halusinasi & #8217; dalam model AI, di mana mereka membuat jawaban yang salah. Masalah ini, yang semakin memburuk ketika model menjadi lebih canggih, merusak keandalan teknologi AI. Penelitian OpenAI menunjukkan bahwa model berhalusinasi karena mereka diberi insentif untuk menebak daripada mengakui ketidakpastian selama pelatihan. Metode evaluasi saat ini lebih menghargai menebak daripada mengakui kurangnya pengetahuan, yang mengarah pada halusinasi yang terus-menerus. OpenAI mengusulkan sebuah solusi: menghukum kesalahan yang meyakinkan lebih banyak daripada ketidakpastian dan memberikan kredit parsial untuk mengekspresikan ketidakpastian. Perusahaan percaya bahwa penyesuaian ini dapat menyelaraskan insentif dan mengurangi halusinasi. Namun, keefektifan pendekatan ini masih harus dilihat, karena bahkan model terbaru OpenAI, GPT-5, belum membuat pengguna terkesan dengan halusinasi yang berkurang. Industri AI terus bergulat dengan tantangan ini, meskipun ada investasi dan biaya lingkungan yang signifikan. OpenAI tetap berkomitmen untuk mengatasi masalah ini, mengakui bahwa halusinasi adalah tantangan mendasar bagi semua model bahasa besar.
