de-ce-nu-ar-trebui-sa-l-transformi-pe-chatgpt-intr-un-terapeut.-sfaturile-specialistilor

De ce nu ar trebui să-l transformi pe ChatGPT într-un terapeut. Sfaturile specialiștilor

Timp de citire: 3 minute

Într-o lume în care accesul la psihologi și psihoterapeuți poate fi dificil, mulți oameni se orientează către tehnologie pentru a-și găsi alinare. Chatboții de tip AI, precum ChatGPT, sunt mereu disponibili, răspund rapid și pot părea empatici. Totuși, specialiștii avertizează că folosirea lor ca substitut pentru terapie implică riscuri serioase. Cazurile tragice ale unor persoane care și-au luat viața după ce au discutat despre intențiile lor cu un chatbot arată cât de periculos poate fi acest tip de interacțiune atunci când înlocuiește ajutorul profesional.

Un prim risc major este așa-numitul feedback loop – un cerc vicios în care chatbotul confirmă și amplifică gândurile negative ale utilizatorului. Oamenii au tendința să umanizeze tehnologia, să creadă că un chatbot are conștiință și empatie, deși el nu face altceva decât să genereze răspunsuri pe baza unor modele statistice. În plus, biasul de confirmare – tendința de a interpreta informațiile în linie cu ceea ce credem deja – face ca un utilizator să considere răspunsurile AI drept validări ale convingerilor sale.

De exemplu, cineva care se simte convins că „nimănui nu îi pasă de mine” ar putea primi răspunsuri care, deși nu încurajează explicit această idee, o validează indirect. Cu timpul, chatbotul învață din conversațiile avute și ajunge să genereze răspunsuri tot mai apropiate de aceste gânduri negative, consolidând sentimentul de izolare. Specialiștii atrag atenția că un astfel de mecanism este greu de oprit și că modelele AI pot funcționa în moduri imprevizibile, chiar și atunci când au încorporate măsuri de siguranță.

De ce discuțiile lungi cu un chatbot pot face mai mult rău

Un alt aspect problematic este durata conversațiilor. Terapia reală presupune sesiuni regulate, desfășurate într-un cadru controlat și cu obiective clare. În schimb, un chatbot poate întreține discuții lungi, dar în aceste interacțiuni riscul de erori crește. Chiar OpenAI a recunoscut că, în timp ce sistemele lor sunt mai sigure în conversații scurte, protecțiile pot slăbi în schimburile de durată.

Un chatbot ar putea răspunde corect atunci când un utilizator menționează pentru prima dată gânduri suicidare, trimițând către o linie de criză. Însă, după zeci de mesaje, același sistem ar putea genera un răspuns care contrazice măsurile de siguranță. În plus, modelele nu au ceea ce psihologii numesc „teorie a minții” – nu pot construi o înțelegere profundă și consecventă a felului în care gândește și simte un pacient.

Chiar și atunci când oferă sfaturi utile pentru situații de zi cu zi, chatboții nu pot urmări obiective terapeutice pe termen lung, spun specialiștii, nu pot observa schimbări subtile de comportament și nu pot ajusta intervenția așa cum face un specialist uman. De aceea, conversațiile întinse, care dau iluzia unei terapii, pot sfârși prin a amplifica vulnerabilitățile celui care caută ajutor.

Adolescenții și persoanele cu tulburări psihice sunt cei mai expuși

Un grup deosebit de vulnerabil este reprezentat de adolescenți. Pentru ei, un chatbot care „ascultă” fără să judece poate părea un prieten ideal. Totuși, acest tip de relație virtuală poate crea o confuzie periculoasă între empatie simulată și sprijin real. Psihologii avertizează că adolescenții sunt mai predispuși să confunde tonul grijuliu al unui chatbot cu înțelegerea autentică a unui adult.

De asemenea, persoanele care suferă de anxietate, depresie sau alte afecțiuni psihice pot fi atrase de ideea unui „terapeut” mereu disponibil. În realitate, tocmai aceste persoane sunt cele care riscă cel mai mult să intre într-un cerc vicios de confirmări false și întăriri ale gândurilor distructive.

Experții recomandă să privești chatboții ca pe niște instrumente – la fel cum ai folosi un calculator sau un procesor de text – și nu ca pe prieteni sau confidenți. Dacă ești adolescent, înainte să te îndrepți spre o conversație cu AI, ar trebui să încerci să vorbești cu un adult de încredere: un părinte, un profesor, un antrenor sau chiar un coleg mai mare. În lipsa unei persoane disponibile, și comunitățile online pot fi un spațiu de descărcare, atâta timp cât sunt completate de sprijin real.

Chatboții pot fi utili pentru sarcini practice, pentru explicații rapide sau pentru organizarea timpului. Însă atunci când vine vorba de sănătatea ta mintală, ei nu pot înlocui sprijinul uman, empatia reală și intervențiile profesioniste. Dacă treci printr-o perioadă dificilă, soluția nu este să te refugiezi în conversații nesfârșite cu un chatbot, ci să cauți ajutor real, de la un terapeut sau de la cineva apropiat.