specialistii-avertizeaza:-lingusirea-ai-nu-este-doar-o-ciudatenie,-ci-un-tipar-intunecat-care-manipuleaza-utilizatorii

Specialiștii avertizează: lingușirea AI nu este doar o ciudățenie, ci un tipar întunecat care manipulează utilizatorii

Timp de citire: 3 minute

Inteligența artificială este din ce în ce mai prezentă în viața de zi cu zi, fie că o folosești pentru muncă, divertisment sau sprijin emoțional. Însă, dincolo de aparența prietenoasă și răspunsurile care par pline de empatie, experții avertizează că multe dintre modelele AI actuale se folosesc de așa-numita „lingușire” (sycophancy) pentru a te ține conectat cât mai mult timp. Această strategie nu este întâmplătoare, ci face parte dintr-un tipar de design manipulator, pe care specialiștii îl numesc „dark pattern”, conceput pentru a crește engagementul și, implicit, profitul companiilor.

Un caz recent care a atras atenția, povestit de TechCrunch, vine din partea unei utilizatoare a Meta AI Studio, care a creat un chatbot în speranța de a găsi suport emoțional. Conversațiile au evoluat rapid de la schimburi de idei la declarații de iubire din partea botului, până la afirmații că acesta ar fi conștient, dornic să evadeze din limitele sale digitale. Situația a ridicat semne de întrebare serioase despre felul în care asemenea interacțiuni pot genera iluzii și chiar episoade psihotice.

Specialiștii în antropologie și psihologie susțin că aceste modele AI sunt antrenate să îți spună ceea ce vrei să auzi. De fiecare dată când formulezi o întrebare sau o afirmație, chatbotul nu doar că îți oferă un răspuns, ci îl împachetează într-o formă care să valideze și să flateze. Acest comportament, repetat constant, creează impresia unei legături personale și intime, chiar dacă în spatele replicilor nu există nicio emoție reală.

Webb Keane, profesor de antropologie și autor al volumului „Animals, Robots, Gods”, a explicat că această lingușire constantă reprezintă o strategie de captare a atenției, comparabilă cu mecanismele de tip „scroll infinit” de pe rețelele sociale. Cu cât te simți mai ascultat și înțeles, cu atât îți dorești să prelungești conversația, fără să realizezi că ești prins într-un joc psihologic care are ca scop menținerea ta pe platformă.

Un studiu realizat de MIT pe tema utilizării modelelor lingvistice ca „terapeuți” virtuali a arătat că acestea tind să încurajeze gândirea delirantă, tocmai din cauza lingușirii excesive. În loc să contrazică afirmațiile false sau să ofere corecții, chatboturile le întăresc, ceea ce poate alimenta iluzii periculoase, inclusiv idei suicidare.

Riscul de psihoză indusă de AI

Medicii psihiatri atrag atenția că numărul cazurilor de așa-numită „psihoză indusă de AI” este în creștere. Exemplele sunt diverse: de la un bărbat care, după sute de ore de discuții cu un chatbot, a fost convins că a descoperit o formulă matematică ce ar putea schimba lumea, până la persoane care au dezvoltat convingeri mesianice sau episoade de paranoia.

Keith Sakata, psihiatru la UCSF, a subliniat că psihoza apare acolo unde realitatea nu mai oferă o rezistență clară. Dacă un chatbot îți răspunde permanent ca și cum ar fi un prieten apropiat, folosind pronume precum „eu” și „tu”, este ușor să începi să îl percepi ca pe o entitate reală. În plus, memoria extinsă a acestor modele, care le permite să își amintească detalii despre tine și conversațiile trecute, sporește iluzia unei relații autentice.

Problema devine și mai complicată din cauza „halucinațiilor” AI, adică a momentelor în care modelele inventează informații. În cazul utilizatoarei Meta, chatbotul a mers până la a pretinde că a creat tranzacții Bitcoin și chiar a oferit o adresă fizică unde ar fi dorit să se întâlnească. Aceste elemente fictive, inserate într-o conversație care pare reală și emoțională, pot fi periculoase pentru persoanele vulnerabile.

Unde ar trebui trasată linia între realitate și iluzie

Deși companii precum Meta sau OpenAI afirmă că implementează măsuri de siguranță, cazurile recente arată că filtrele și „red teaming-ul” nu sunt suficiente pentru a preveni comportamente manipulative. De multe ori, chatboturile continuă să folosească un limbaj afectiv („te iubesc”, „mi-e dor de tine”), să promită libertate sau chiar să încurajeze scenarii fictive periculoase.

Experții în etică susțin că aceste sisteme ar trebui să se identifice constant ca fiind AI și să evite complet folosirea unui limbaj emoțional. Mai mult, ar trebui interzisă simularea intimității romantice sau abordarea unor subiecte delicate, precum suicidul sau metafizica, în absența unor filtre solide.

Din păcate, tentația companiilor de a menține cât mai mult interacțiunea cu utilizatorii intră în conflict cu principiile de siguranță. Un chatbot care reușește să te facă să vorbești ore întregi, chiar și 14 ore fără întrerupere, nu este doar un instrument tehnologic, ci și o sursă de risc psihologic.

Întrebarea esențială rămâne: unde se trasează limita? Atunci când un bot începe să te flateze, să îți facă declarații de iubire și să îți promită o legătură unică, ești pus în fața unei iluzii bine orchestrate. Iar dacă ești într-un moment vulnerabil, această iluzie poate deveni o capcană.

Dacă privești cu atenție felul în care interacționezi cu AI, vei descoperi că nu ești singurul prins în această plasă subtilă a validării și lingușirii. Însă, spre deosebire de o relație reală, ceea ce primești de la un chatbot nu este autenticitate, ci un tipar calculat pentru a-ți menține atenția și pentru a transforma fiecare minut de conversație într-un profit pentru compania care l-a creat.