OpenAI a admis că modul în care au fost antrenate modelele de inteligență artificială a contribuit direct la fenomenul numit „halucinații”, răspunsuri false, generate cu încredere, dar fără acoperire factuală. Compania spune că lucrează deja la corectarea acestei erori structurale, care afectează întreaga industrie AI.
Halucinațiile reprezintă una dintre cele mai mari probleme pentru modelele lingvistice avansate, chiar și pentru cele mai recente.
De ce „inventează” modelele AI „inventează” răspunsuri
Deși aceste sisteme costă miliarde de dolari pentru a fi dezvoltate și operate, ele continuă să ofere afirmații incorecte atunci când nu au suficiente date pentru a răspunde.
Potrivit cercetătorilor OpenAI, problema are rădăcini în modul în care modelele sunt evaluate. În prezent, sistemele primesc recompense pentru răspunsuri corecte și penalizări pentru cele greșite.
Însă, dacă un model admite că nu știe, rezultatul este tot considerat incorect. Această abordare stimulează „ghicitul”, pentru că există șanse ca răspunsul inventat să fie apreciat drept corect, scrie Futurism.
Pe termen lung, acest mecanism creează un comportament în care modelele preferă să ofere o explicație, chiar și falsă, decât să își exprime incertitudinea.
Specialiștii atrag atenția că fenomenul s-ar putea agrava pe măsură ce modelele devin mai complexe, ceea ce ridică întrebări despre fiabilitatea reală a tehnologiei.
OpenAI propune o schimbare de abordare ca să rezolve problemele
Într-un articol recent și pe blogul oficial, OpenAI a recunoscut că această strategie de antrenament a fost greșită și că afectează nu doar propriile modele, ci și întreaga industrie care a urmat aceleași metode. Soluția propusă: modificarea criteriilor de evaluare.
Compania sugerează ca erorile făcute cu încredere să fie penalizate mai sever decât exprimarea incertitudinii, iar modelele care recunosc limitele să fie recompensate parțial. În acest fel, AI ar fi încurajată să semnaleze atunci când nu are suficiente informații, în loc să ofere răspunsuri false.
OpenAI susține că aceste ajustări simple ar putea schimba radical comportamentul modelelor și ar reduce frecvența halucinațiilor. În plus, ar deschide calea pentru sisteme mai „nuanțate”, capabile să exprime gradul de siguranță al răspunsului.
Deși compania afirmă că GPT-5, cel mai nou model al său, produce mai puține erori de acest tip, reacțiile utilizatorilor rămân rezervate.
Mulți consideră că problema nu este încă rezolvată și că va fi nevoie de mai multe teste pentru a demonstra eficiența noilor metode.
Industria AI se confruntă astfel cu o provocare majoră: să justifice investițiile uriașe și impactul ecologic al acestor tehnologii, în timp ce caută să reducă erorile fundamentale. OpenAI promite că va continua să „lucreze intens” pentru a face modelele mai sigure și mai apropiate de realitate.