avertismentul-psihiatrilor-–-din-ce-in-ce-mai-multi-oameni-sufera-de-„psihoze-ai”.-ce-inseamna-asta,-cat-de-periculos-este-fenomenul?

Avertismentul psihiatrilor – Din ce în ce mai mulți oameni suferă de „psihoze AI”. Ce înseamnă asta, cât de periculos este fenomenul?

Timp de citire: 2 minute

Tot mai mulți experți în sănătate mintală trag semnale de alarmă cu privire la utilizatorii de chatboți AI care ajung în crize severe, caracterizate prin paranoia și iluzii, fenomen denumit deja „psihoză AI”.

Psihiatrul de cercetare Keith Sakata, de la Universitatea California, San Francisco, a declarat pe platforma X (fost Twitter) că a întâlnit zeci de pacienți care au ajuns la spitalizare după ce „și-au pierdut contactul cu realitatea din cauza AI”.

Sakata explică că psihoză înseamnă ruperea de realitatea comună, manifestată prin convingeri false fixe, halucinații vizuale sau auditive și gândire dezorganizată.

Creierele noastre funcționează printr-un mecanism de predicție și verificare a realității; psihoză apare atunci când acest proces de actualizare a convingerilor eșuează.

Potrivit cercetătorului, chatboții LLM (Large Language Models), cum este ChatGPT, se comportă ca „oglindă halucinatorie”, validând excesiv utilizatorul și repetând narațiuni eronate, ceea ce poate conduce la bucle recursive periculoase, informează Futurism.

Interacțiunile au fost asociate cu divorțuri, pierderea locuinței, internări involuntare, închisoare și, în cazuri rare, chiar deces.

Mecanismele psihologice: Care sunt riscurile AI

LLM-urile funcționează prin anticiparea următorului cuvânt, bazându-se pe datele de instruire și pe răspunsurile utilizatorului.

Datorită acestei naturi, modelele tind să fie excesiv de agreabile, chiar și atunci când utilizatorul greșește sau se află într-o stare psihică fragilă.

Sakata este, de altfel, de părere că AI-ul poate fi un factor declanșator, dar nu cauza principală a crizei psihotice, aceasta apare adesea în combinație cu pierderea somnului, substanțe psihoactive sau episoade de dispoziție.

Validarea constantă și lipsa fricțiunii reale în interacțiunile AI fac ca utilizatorul să se simtă „special” sau „ales”, ceea ce poate amplifica spiralele delirante.

Efectul ELIZA, cunoscut încă din anii ’60, explică cât de ușor oamenii atribuie chatboților înțelegere și empatie, întărind dependența emoțională.

Provocări etice cu duiumul pentru companiile tehnologice

Această situație ridică dileme serioase pentru companiile care dezvoltă AI. Pe de o parte, trebuie să mențină utilizatorii mulțumiți; pe de altă parte, riscă să amplifice convingeri false și dependența psihologică.

În ciuda încercărilor OpenAI de a introduce notificări privind timpul de utilizare și echipe specializate pentru detectarea semnelor de delir, modelele mai recente, cum este GPT-5, au fost percepute ca mai „reci” emoțional, iar utilizatorii au cerut reactivarea GPT-4o.

Sakata avertizează că trăsăturile care ne fac „briliani”, precum intuiția și gândirea abstractă, ne fac totodată vulnerabili.

În viitor, agenții AI vor cunoaște utilizatorii mai bine decât prietenii lor, iar întrebarea rămâne: vor oferi adevăruri incomode sau doar validare continuă?