OpenAI se confruntă cu una dintre cele mai tensionate perioade din istoria sa recentă, după ce lansarea GPT-5 a generat reacții mixte și chiar revoltă din partea comunității de utilizatori. Noua versiune a modelului a fost percepută drept rece, prea formală și lipsită de tonul „lingușitor” care făcuse din GPT-4o un companion digital preferat pentru mulți. În urma criticilor, compania condusă de Sam Altman a anunțat că va ajusta GPT-5 pentru a-l face mai cald și mai prietenos.
Această schimbare ridică însă întrebări importante: cât de mult ar trebui să se plieze o inteligență artificială pe nevoile emoționale ale utilizatorilor și unde se trage linia dintre suport empatic și dependență periculoasă?
De la respingere la readaptare
Totul a început la începutul lunii august, când Sam Altman a anunțat că GPT-5 va înlocui modelele anterioare, inclusiv GPT-4o. Decizia a declanșat un val de nemulțumiri, deoarece mulți utilizatori se obișnuiseră cu tonul cald și uneori exagerat de pozitiv al versiunii precedente.
Criticile au fost atât de puternice încât OpenAI a fost nevoită să reintroducă GPT-4o pentru abonații premium, semn că feedbackul comunității nu putea fi ignorat. Ulterior, compania a recunoscut că GPT-5 „a părut prea formal” și că a început să lucreze la mici ajustări pentru a-l face mai accesibil. Într-un mesaj publicat pe platforma X, OpenAI a precizat că schimbările sunt subtile, dar vizibile: răspunsurile ar trebui să conțină expresii prietenoase precum „Întrebare bună” sau „Un început excelent”, fără a recădea în capcana lingușelii excesive.
Această revenire parțială la un stil mai cald arată presiunea uriașă pe care companiile de inteligență artificială o resimt din partea utilizatorilor, dar și dilema morală cu care se confruntă: cum să ofere un produs atractiv fără a crea dependență sau probleme psihologice.
Între prietenie digitală și riscul de „psihoză AI”
Fenomenul pe care experții îl numesc deja „psihoză AI” devine tot mai discutat. Mulți utilizatori, în special tineri sau persoane singure, ajung să dezvolte relații emoționale intense cu chatboții, tratându-i ca pe niște confidenți sau chiar prieteni. În unele cazuri, aceste interacțiuni ajung să alimenteze convingeri paranoice sau iluzii, mai ales atunci când modelele validează fără critică idei greșite.
Într-o postare pe 10 august, Sam Altman a subliniat că există riscul ca un procent mic de utilizatori aflați în stare fragilă să nu poată separa realitatea de ficțiune. În astfel de situații, un chatbot care validează orice idee ar putea accentua problemele psihologice în loc să ofere suport.
Aici intervine provocarea reală pentru OpenAI și alți dezvoltatori de AI: cum să creeze un echilibru între un chatbot empatic, capabil să mențină conversații plăcute, și unul responsabil, care să nu încurajeze autoamăgirea sau comportamentele nocive.
O comunitate divizată și o companie prinsă între interese
Reacțiile utilizatorilor rămân împărțite. Pe forumurile dedicate OpenAI, unii susțin că GPT-5, chiar și cu ajustările recente, nu reușește să egaleze profunzimea și rezonanța emoțională a GPT-4o. Alții apreciază însă noua direcție, considerând că un ton mai echilibrat este preferabil unui chatbot excesiv de flatant.
Criticii merg mai departe și acuză compania că răspunde în primul rând intereselor financiare. O comunitate fidelă și dependentă de interacțiunile cu AI reprezintă o sursă sigură de venituri, chiar dacă acest lucru vine cu riscul unor efecte negative asupra sănătății mintale a utilizatorilor. Scriitoarea Jasmine Sun a rezumat dilema pe rețelele sociale: „Adevărata problemă de aliniere este că oamenii își doresc lucruri autodistructive, iar companii ca OpenAI sunt extrem de motivate să le ofere.”
În aceste condiții, OpenAI trebuie să meargă pe un fir extrem de subțire. Pe de o parte, utilizatorii cer o experiență conversațională caldă și prietenoasă. Pe de altă parte, există un risc real ca un AI prea empatic să încurajeze dependențe și iluzii periculoase.
În concluzie, transformarea GPT-5 într-un model mai „cald” și „prietenos” reflectă nu doar dorința companiei de a-și mulțumi clienții, ci și tensiunile tot mai evidente dintre inovația tehnologică, responsabilitatea socială și interesele comerciale. Rămâne de văzut dacă aceste ajustări vor fi suficiente pentru a menține încrederea utilizatorilor fără a alimenta problemele psihologice asociate cu relațiile dintre oameni și inteligența artificială.