OpenAI susține că noul său model lingvistic, GPT-5, inventează informații semnificativ mai rar decât versiunile anterioare, un progres important într-un domeniu unde acuratețea și încrederea sunt esențiale. Datele comunicate de companie arată că procentul de „halucinații” – situațiile în care AI-ul furnizează informații false sau fabricate – a scăzut vizibil față de generațiile trecute.
Reduceri notabile ale halucinațiilor cu acces la internet
În condiții standard, cu acces la internet, GPT-5 înregistrează o rată de halucinații de 9,6%, comparativ cu 12,9% în cazul GPT-4o. Atunci când este activat modul de raționament, rata scade și mai mult, până la 4,5%. Aceste rezultate sugerează că îmbunătățirile arhitecturale și optimizările aduse modelului au un impact real asupra calității răspunsurilor.
Pe de altă parte, lipsa conexiunii la internet rămâne o provocare. Fără acces la surse externe, GPT-5 halucinează în 40% din cazuri cu modul de raționament activ și în 47% fără acest mod – procente încă mari, dar mai mici decât cele ale generației anterioare. GPT-4o, în aceleași condiții, depășea 50% în ambele scenarii.
Un pas înainte după un regres neașteptat
Rezultatele sunt notabile și pentru că vin după o perioadă în care, paradoxal, GPT-4o halucina mai des decât modelul pe care îl înlocuia, iar echipa OpenAI recunoștea că nu avea o explicație clară pentru acest fenomen. Îmbunătățirile aduse GPT-5 indică faptul că au fost găsite soluții concrete pentru reducerea erorilor factuale.
Totuși, accesul la cea mai performantă versiune nu este uniform pentru toți utilizatorii. OpenAI continuă să aplice limitări în funcție de tipul de cont și de abonament, ceea ce înseamnă că nu fiecare utilizator va beneficia permanent de modelul cu cele mai bune rezultate.
Dacă datele comunicate se confirmă și în utilizarea reală, GPT-5 ar putea oferi o experiență mai fiabilă și mai apropiată de ceea ce așteaptă utilizatorii de la un asistent AI de ultimă generație – răspunsuri corecte, relevante și cu un risc redus de invenții nefondate.