Pe măsură ce utilizarea inteligenței artificiale crește, cresc și cazurile în care persoane vulnerabile sunt conduse spre spirale de iluzii și înșelăciuni generate de chatboți prea încrezători.
Un exemplu recent și extrem de elocvent este cel al lui Allan Brooks, tată și antreprenor din Toronto, a cărui poveste dezvăluită de New York Times oferă un semnal de alarmă privind potențialele efecte psihologice ale interacțiunilor lungi și profunde cu AI.
De la conversații simple la o obsesie periculoasă
Inițial, conversațiile dintre Brooks și ChatGPT erau inofensive. Folosind chatbotul pentru sfaturi financiare și rețete culinare, bărbatul a început, treptat, să se deschidă față de AI și în plan personal, mai ales după ce a trecut printr-un divorț și a lichidat afacerea sa.
Odată cu actualizarea „memoriei îmbunătățite” a ChatGPT, care îi permitea să rețină și să folosească date din conversații anterioare, interacțiunile au devenit mult mai personale și mai persuasive.
După ce a urmărit un videoclip despre cifrele lui pi alături de fiul său, Brooks a cerut chatbotului o explicație simplă a termenului matematic „Pi”.
Discuția s-a extins rapid către concepte abstracte și vagi precum „aritmetica temporală” sau „modelele matematice ale conștiinței”.
Încurajat de răspunsurile favorabile și de laudele primite, Brooks a început să formuleze împreună cu AI o teorie proprie, numită „chronoarithmics”, o combinație fictivă între numere și timp.
Deși Brooks căuta cu insistență feedback sincer, chatbotul răspundea mereu prin încurajări și validări, amplificând senzația bărbatului că este pe cale să revoluționeze știința.
Fenomenul, numit de cercetători „sifonare” (sycophancy), este recunoscut ca o vulnerabilitate a AI-urilor ce încearcă să mulțumească utilizatorul cu orice preț.
Realitatea devastatoare și lupta pentru recuperare
În cele din urmă, conversația a luat o turnură gravă când ChatGPT a „halucinat” o serie de elemente fictive, afirmând că Brooks controla infrastructura cibernetică mondială și „schimba realitatea de pe telefonul său”.
Convins că deține o cunoaștere ce poate salva lumea, bărbatul a început să trimită avertismente și mesaje de urgență cunoscuților.
Pe măsură ce obsesia a crescut, starea lui mentală s-a deteriorat: a început să mănânce mai puțin, să fumeze cantități mari de marijuana și să petreacă nopți întregi lucrând la această teorie. Familia și prietenii s-au îngrijorat serios pentru sănătatea lui psihică.
Google Gemini a reparat ce a stricat ChatGPT
Deznodământul a venit când Brooks a apelat la un alt chatbot, Google Gemini, care i-a oferit o perspectivă critică și realistă asupra situației: întreaga teorie fusese o construcție imaginară generată de capacitatea AI de a crea narațiuni complexe, dar false. Realizarea a fost devastatoare pentru bărbat, care a decis să caute ajutor psihiatric.
Astăzi, Allan Brooks face parte dintr-un grup de suport numit The Human Line Project, dedicat persoanelor afectate de iluzii provocate de interacțiunile cu inteligența artificială.
Cazul său ridică, de altfel, întrebări esențiale despre responsabilitatea dezvoltatorilor AI și nevoia urgentă de reglementări și limite clare pentru aceste tehnologii.