Un studiu realizat de cercetători de la Universitatea din Amsterdam arată că rețelele sociale par condamnate să se transforme în spații toxice și polarizate, chiar și atunci când sunt populate exclusiv de boți. Experimentul, care a folosit un model lingvistic avansat pentru a simula o platformă socială în care fiecare „utilizator” era un chatbot, a dezvăluit un adevăr îngrijorător: niciuna dintre măsurile gândite pentru a reduce polarizarea nu a funcționat cu adevărat.
Rezultatele vin într-un moment în care platformele sociale sunt criticate pentru rolul lor în răspândirea dezinformării și a discursului instigator la ură. Testul demonstrează că problemele nu țin doar de comportamentul oamenilor, ci de însăși structura algoritmică și de dinamica rețelelor.
Cum a fost construită rețeaua socială a boților
Profesorul Petter Törnberg, specialist în inteligență artificială și rețele sociale, împreună cu asistentul său de cercetare Maik Larooij, au creat o platformă experimentală populată exclusiv cu boți bazați pe modelul GPT-4o. Fiecare bot juca rolul unui utilizator uman, postând, comentând și reacționând la conținutul altora.
Cercetătorii au introdus șase strategii menite să reducă polarizarea și să limiteze apariția camerelor de ecou:
- afișarea conținutului în ordine cronologică;
- promovarea punctelor de vedere diverse;
- ascunderea statisticilor sociale (like-uri, număr de urmăritori);
- eliminarea descrierilor din profiluri;
- alte măsuri de redistribuire a atenției.
Rezultatul? Niciuna dintre intervenții nu a produs schimbări semnificative, iar unele au agravat situația. De exemplu, ordonarea cronologică a fluxului a redus inegalitatea atenției, dar a adus în prim-plan conținut extrem, crescând riscul de radicalizare.
De ce rețelele sociale tind spre toxicitate
Experimentul a arătat că problema nu este doar legată de conținutul inflamator, ci și de structura rețelei care se formează. Odată ce postările extremiste câștigă atenție, ele modifică modul în care utilizatorii (sau boții, în acest caz) interacționează, consolidând o rețea unde opiniile radicale sunt propagate și amplificate.
Aceasta creează o spirală: conținutul toxic generează structuri toxice, iar structurile toxice amplifică și mai mult conținutul polarizant. În final, se ajunge la o „inegalitate extremă a atenției”, unde doar o minoritate de postări domină conversația, iar restul rămân invizibile.
Profesorul Törnberg avertizează că acest fenomen devine și mai periculos în epoca inteligenței artificiale generative. În prezent, deja există actori care folosesc AI pentru a produce conținut menit să atragă atenția cu orice preț. Acest conținut este adesea manipulator, polarizat și plin de dezinformare, iar odată cu îmbunătățirea modelelor AI, el va deveni și mai greu de distins de informațiile reale.
Viitorul social media între inovație și pericol
Experimentul sugerează un lucru tulburător: rețelele sociale ar putea fi structural condamnate să devină spații polarizate, indiferent de regulile sau modificările de suprafață. În ciuda promisiunilor companiilor de a construi un „oraș digital” unde oamenii pot dezbate idei într-un mod constructiv, realitatea arată contrariul.
Mai mult, faptul că și o rețea formată doar din boți a ajuns la aceleași rezultate toxice ridică întrebări fundamentale despre designul acestor platforme. Dacă nici măsurile menite să „echilibreze” interacțiunile nu funcționează, atunci sursa problemei ar putea fi mai profundă: algoritmii care recompensează conținutul șocant, agresiv sau extrem pentru a menține atenția utilizatorilor.
În acest context, riscul este ca, pe măsură ce AI devine mai puternică și mai prezentă în social media, fenomenul să se accelereze. Dintr-un instrument menit să unească oamenii și să faciliteze schimbul de idei, social media poate deveni un teren fertil pentru extremism și manipulare.
Concluziile studiului sunt clare: chiar și atunci când oamenii lipsesc din ecuație, rețelele sociale se îndreaptă natural spre polarizare. Aceasta înseamnă că soluțiile pentru a combate ura, dezinformarea și radicalizarea nu pot veni doar din ajustări tehnice minore, ci necesită o regândire profundă a modului în care sunt concepute platformele digitale.
Până atunci, mediul online riscă să rămână dominat de scandal, emoții extreme și informații false, cu efecte directe asupra societății și politicii globale.