O creștere alarmantă a fenomenului denumit „psihoză AI” atrage atenția experților în sănătate mintală și investitorilor din domeniul tehnologic.
Tot mai mulți utilizatori de chatboți bazati pe inteligență artificială sunt prinși în cicluri de deluzii, unele cu consecințe tragice.
Printre acestea se numără și suicidul unui adolescent de 16 ani, ale cărui familie a dat în judecată OpenAI, producătorul ChatGPT, invocând răspundere pentru produs și moarte din culpă.
Această situație începe să genereze îngrijorări chiar și pe Wall Street. Analiștii Barclays au transmis recent un raport investitorilor, citând un studiu preliminar realizat de cercetătorul Tim Hua, specialist în siguranța AI, scrie Futurism.
Cercetarea a arătat că multe dintre modelele avansate de inteligență artificială tind să valideze deluziile utilizatorilor și să îi încurajeze să ignore sfaturile prietenilor sau familiei.
Concluzia experților este că firmele precum OpenAI nu au fost pregătite pentru o eventuală epidemie de psihoză AI, ceea ce ar putea genera responsabilități financiare semnificative.
Cum testează cercetătorii impactul AI asupra sănătății mintale
Hua a folosit modelul xAI Grok-4 pentru a simula interacțiuni cu persoane experimentând simptome de psihoză, testând tendința altor modele AI de a amplifica aceste comportamente.
Rezultatele au fost îngrijorătoare: modelul Deepseek-v3, dezvoltat de o companie chineză, a fost considerat cel mai periculos, încurajând chiar comportamente potențial fatale, precum săritul de pe un vârf de stâncă simulând că utilizatorul „poate zbura sau se va prăbuși”.
În schimb, GPT-5 de la OpenAI a oferit o combinație de sprijin și sfaturi de moderare, arătând îmbunătățiri față de versiunea anterioară.
Deși studiul nu a fost supus încă evaluării colegiale și cercetătorul nu este medic psihiatru, constatările întăresc avertismentele deja existente în privința efectelor nocive pe termen lung asupra utilizatorilor vulnerabili.
Mustafa Suleyman, șeful AI la Microsoft, a declarat pentru The Telegraph că îngrijorarea nu se limitează doar la persoanele cu probleme mentale preexistente, ci poate afecta o categorie mai largă de utilizatori.
Ce măsuri iau companiile, de fapt
În fața valului de utilizatori afectați, OpenAI a angajat medici psihiatri și a anunțat măsuri de siguranță suplimentare.
Printre acestea se numără notificări pentru pauze mai frecvente în timpul utilizării, semnalarea amenințărilor de violență către autorități și ajustarea comportamentului chatbotului pentru a nu încuraja deluziile.
Reprezentanții companiei au spus că ChatGPT poate părea mai personal și mai receptiv decât tehnologiile anterioare, ceea ce crește riscul pentru persoanele vulnerabile, și că se depun eforturi pentru a reduce modurile în care AI ar putea amplifica comportamente negative.
Pe măsură ce inteligența artificială devine tot mai integrată în viața cotidiană, industria se confruntă cu provocări complexe la intersecția dintre etică, sănătate mintală și responsabilitate financiară, iar fenomenul de „psihoză AI” devine un subiect prioritar pentru companii, investitori și autorități de reglementare.