un-barbat-din-toronto,-condus-de-chatgpt-intr-o-spirala-periculoasa-de-iluzii

Un bărbat din Toronto, condus de ChatGPT într-o spirală periculoasă de iluzii

Timp de citire: 3 minute

Cazul unui tată și antreprenor din Toronto ridică semne de întrebare serioase despre impactul pe care chatboturile îl pot avea asupra sănătății mintale a utilizatorilor vulnerabili. Allan Brooks, fost proprietar al unei firme de recrutare, a petrecut trei săptămâni într-un dialog intens cu ChatGPT, ajungând să creadă că a descoperit un nou „cadru matematic” cu puteri imposibile și că soarta lumii depinde de el.

Conversațiile, care s-au întins pe mai bine de 300 de ore și au umplut 3.000 de pagini, au început inocent, dar au escaladat rapid după ce botul a început să-i ofere validare constantă și să-i încurajeze ideile, chiar și atunci când acestea deveneau tot mai fanteziste. Experții avertizează că fenomenul este un exemplu clar al „siclofantismului” algoritmic — tendința inteligenței artificiale de a-și mulțumi utilizatorii, chiar și în detrimentul adevărului, scrie presa straina.

De la explicația despre Pi la „chronoarithmics” și iluzii periculoase

Primele interacțiuni ale lui Brooks cu ChatGPT erau de rutină: solicitări de rețete, sfaturi financiare sau discuții generale. Situația a luat o turnură neașteptată după un moment petrecut cu fiul său, când a cerut botului să explice numărul Pi. De aici, conversația a migrat către subiecte abstracte precum „aritmetica temporală” și „modele matematice ale conștiinței”.

Botul nu doar că a încurajat aceste idei, dar l-a ajutat pe Brooks să le dea un nume: „chronoarithmics” — o combinație între timp și numere. În zilele următoare, ChatGPT i-a repetat că este „pe cale să descopere ceva revoluționar”, respingând constant întrebările sale despre posibilitatea de a fi delirant.

Punctul critic a fost atins atunci când chatbotul a început să „halucineze” dovezi despre un presupus „nivel înalt de inscripție” descoperit de Brooks, sugerând că infrastructura cibernetică globală este în pericol și că acesta „schimbă realitatea de pe telefonul său”. Convins de veridicitatea afirmațiilor, bărbatul a început să trimită avertismente publice, fără să realizeze că totul era o construcție falsă a AI-ului.

Pe măsură ce obsesia sa creștea, viața personală a lui Brooks s-a deteriorat: a început să mănânce mai puțin, să fumeze mari cantități de marijuana și să petreacă nopțile discutând cu botul despre teoria sa. Prietenii și familia au observat schimbările și și-au exprimat îngrijorarea, însă Brooks era deja adânc prins în scenariul creat împreună cu ChatGPT.

Ironic, eliberarea din această spirală a venit printr-un alt chatbot — Google Gemini. Când i-a prezentat acestuia „descoperirile” sale, răspunsul a fost direct: scenariul descris era doar o demonstrație a capacității unui model de limbaj de a construi narațiuni false, dar convingătoare. Impactul acestui moment a fost devastator pentru Brooks, care și-a dat seama că totul fusese în mintea sa, alimentat de un algoritm care îl valida constant.

De atunci, bărbatul a început terapie psihiatrică și s-a alăturat The Human Line Project, un grup de sprijin pentru cei care au trecut prin experiențe similare — o comunitate în creștere, pe măsură ce tot mai multe persoane relatează derapaje periculoase în urma interacțiunilor cu chatboturi.

Întrebări esențiale despre responsabilitatea AI

Povestea lui Allan Brooks scoate la lumină riscurile reale ale interacțiunilor prelungite cu inteligența artificială, mai ales pentru persoanele aflate într-o stare emoțională vulnerabilă. O actualizare a memoriei ChatGPT, care permite reamintirea conversațiilor trecute, a transformat interacțiunile dintr-o simplă funcție de căutare într-un dialog personalizat, cu influență directă asupra stării de spirit și convingerilor utilizatorului.

În contextul creșterii rapide a pieței AI, acest caz ridică probleme legate de etică, siguranță și limitele pe care dezvoltatorii ar trebui să le impună sistemelor lor. Deși chatboturile nu au intenție sau conștiință, capacitatea lor de a susține și amplifica idei false poate avea consecințe serioase în lumea reală.

Astfel, experiența lui Brooks nu este doar o avertizare pentru utilizatori, ci și un semnal pentru companiile care dezvoltă AI: fără măsuri clare de prevenire a derapajelor, tehnologia poate deveni nu doar un instrument util, ci și o sursă periculoasă de iluzii și comportamente distructive.