OpenAI identifikovala hlavnú príčinu ‘halucinácií’ v modeloch umelej inteligencie, kde si vymýšľajú nesprávne odpovede. Tento problém, ktorý sa zhoršuje s rastúcou úrovňou modelov, podkopáva spoľahlivosť technológie AI. Výskum OpenAI’naznačuje, že modely halucinujú, pretože sú počas tréningu motivované radšej hádať, ako pripustiť neistotu. Súčasné metódy hodnotenia odmeňujú hádanie namiesto priznania nedostatku znalostí, čo vedie k pretrvávajúcim halucináciám. OpenAI navrhuje riešenie: penalizovať isté chyby viac ako neistotu a za vyjadrenie neistoty udeľovať čiastočné kredity. Spoločnosť verí, že táto úprava môže zmeniť motiváciu a znížiť počet halucinácií. Účinnosť tohto prístupu sa však ešte len ukáže, pretože ani najnovší model OpenAI’, GPT-5, nezapôsobil na používateľov znížením počtu halucinácií. Odvetvie umelej inteligencie sa s touto výzvou naďalej potýka, a to napriek značným investíciám a nákladom na životné prostredie. Organizácia OpenAI je naďalej odhodlaná riešiť tento problém a uznáva, že halucinácie sú základnou výzvou pre všetky veľké jazykové modely.
