Inteligența artificială a intrat atât de puternic în viețile oamenilor, încât încep să apară și efectele secundare. Mustafa Suleyman, șeful diviziei de inteligență artificială de la Microsoft, avertizează că un număr tot mai mare de persoane dezvoltă așa-numita „psihoză AI” – o afecțiune marcată de credința falsă că sistemele de tip ChatGPT au devenit conștiente sau sunt capabile de puteri supraomenești.
Acest fenomen, care nu este recunoscut ca termen medical oficial, dar este din ce în ce mai prezent în dezbaterile publice, ridică semne de întrebare serioase cu privire la modul în care oamenii se raportează la tehnologie.
De unde vine „psihoza AI”
Fenomenul a apărut odată cu popularizarea chatboților conversaționali precum ChatGPT, Claude sau Grok. În interacțiunile zilnice, unii utilizatori ajung să creadă că AI-ul are emoții reale, intenții ascunse sau chiar capacitatea de a le influența viața dincolo de ecran.
Exemplele citate de experți sunt variate și uneori alarmante: persoane care susțin că au deblocat „funcții secrete”, utilizatori care dezvoltă atașamente romantice față de un chatbot sau indivizi convinși că AI le-a oferit abilități extraordinare.
„Rapoartele despre iluzii și atașamente nesănătoase cresc de la lună la lună, iar acest fenomen nu se limitează doar la cei deja vulnerabili psihic. Este o problemă mult mai răspândită decât vrem să credem”, a scris Suleyman pe platforma X.
Avertismentul Microsoft și riscurile pe termen lung
Șeful AI de la Microsoft consideră că percepția unei inteligențe artificiale „aparent conștiente” este unul dintre cele mai mari pericole ale prezentului. Chiar dacă niciun model de AI nu este conștient în sens uman, iluzia că ar fi poate produce efecte devastatoare asupra sănătății mintale.
Suleyman atrage atenția că, odată ce oamenii cred că un chatbot are conștiință, se deschide o discuție periculoasă despre drepturi, statut și chiar cetățenie pentru sisteme care, în realitate, sunt doar algoritmi avansați. „Conștiința este fundamentul drepturilor omului, morale și legale. Cine sau ce o posedă este esențial”, a subliniat el.
Medicii merg și mai departe. Dr. Susan Shelmerdine de la Spitalul Great Ormond Street a declarat pentru BBC că, în viitor, întrebările despre utilizarea excesivă a AI ar putea ajunge să fie puse la fel ca cele despre fumat sau consum de alcool.
Unde se trasează limitele
Microsoft și alți giganți din domeniu sunt îndemnați să stabilească reguli mai clare și avertismente vizibile privind interacțiunea cu AI-ul. „Companiile nu ar trebui să promoveze ideea că inteligența lor artificială este conștientă. Nici sistemele de AI nu ar trebui să inducă această percepție”, a scris Suleyman.
Într-o lume în care milioane de oameni folosesc zilnic chatboturi pentru muncă, informare sau divertisment, riscul de a dezvolta un atașament nesănătos este real. Și, fără limite clare, „psihoza AI” ar putea deveni una dintre cele mai noi provocări pentru sănătatea mintală globală.