Pe măsură ce instrumentele de inteligență artificială devin tot mai prezente în activitățile zilnice, cercetătorii observă un fenomen surprinzător: utilizatorii ajung să își supraestimeze abilitățile într-o măsură mai mare decât o făceau înainte.
Un studiu recent realizat de Aalto University din Finlanda, în colaborare cu institute de cercetare din Germania și Canada, arată că interacțiunea cu chatboturi precum ChatGPT reduce aproape complet, și uneori chiar inversează, celebrul efect Dunning-Kruger, tendința prin care oamenii cu competențe reduse se cred mult mai buni decât sunt în realitate, scrie Live Science.
Această concluzie se bazează pe o serie de teste în care participanții au fost invitați să rezolve probleme de raționament logic și să își estimeze performanțele.
Rezultatele au demonstrat că, indiferent de nivelul real de pricepere, cei care au folosit AI au ajuns să aibă o încredere exagerată în propriile răspunsuri, în special utilizatorii experimentați în lucrul cu astfel de sisteme.
Cum schimbă AI modul în care evaluăm propriile abilități
În cadrul studiului, cercetătorii au analizat comportamentul a 500 de participanți cărora li s-au atribuit întrebări de tip LSAT (Law School Admission Test), recunoscute pentru complexitatea lor.
Jumătate dintre subiecți au primit permisiunea de a folosi un chatbot AI pentru a formula răspunsuri, în timp ce restul au rezolvat testele fără asistență.
Ulterior, toți participanții au fost rugați să estimeze cât de bine au rezolvat problemele și să își evalueze nivelul de familiaritate cu inteligența artificială.
Pentru a stimula acuratețea autoevaluării, li s-a oferit un bonus financiar dacă reușeau să aprecieze corect cât de bine s-au descurcat.
Rezultatele au scos în evidență un fenomen îngrijorător: utilizatorii de AI s-au arătat în mod constant prea siguri de performanța lor, chiar și atunci când răspunsurile generate nu erau corecte.
Cercetătorii au numit acest comportament „cognitive offloading”, o formă de diminuare a reflecției personale, în care subiecții acceptă prima variantă oferită de AI fără a mai verifica sau analiza critic informația.
Deoarece chatboturile reduc efortul cognitiv și cresc rapiditatea cu care se obține un răspuns, utilizatorii renunță involuntar la procesele mentale de verificare, analiză și comparație.
Acest lucru afectează ceea ce psihologii numesc „monitorizare metacognitivă”, adică abilitatea de a evalua cât de bine înțelegem sau executăm o sarcină.
O nouă problemă: supraîncredere generalizată în era AI
Un alt rezultat interesant al cercetării este că, în prezența AI-ului, diferențele dintre cei cu aptitudini reduse și cei foarte competenți se estompează.
Deoarece modelele de limbaj îmbunătățesc performanța tuturor, de la utilizatori obișnuiți la cei avansați, nivelul general al încrederii crește și el, dar nu întotdeauna justificat.
Acest fenomen poate avea efecte secundare serioase, avertizează cercetătorii. Printre riscuri se numără:
- diminuarea capacității de a verifica informațiile în mod autonom;
- creșterea deciziilor greșite generate de încrederea excesivă în instrumente automatizate;
- degradarea abilitaților de gândire critică și analiză;
- erodarea competențelor profesionale în domenii care necesită evaluare și judecată proprie.
Studiul subliniază că, pe termen lung, utilizarea intensă a sistemelor AI ar putea crea o generație de utilizatori convinși că se descurcă mult mai bine decât arată competențele reale, ceea ce poate afecta atât educația, cât și mediul profesional.
Ca soluție, autorii recomandă integrarea unor funcții de reflexivitate în chatboturi: mesaje care să îi încurajeze pe utilizatori să pună întrebări suplimentare, să evalueze nivelul de încredere al răspunsului sau să verifice informațiile prin surse alternative.
Tot mai multe voci din mediul academic susțin ideea că alfabetizarea AI trebuie completată cu formare în gândire critică, nu doar cu abilități tehnice.