În timp ce inteligența artificială devine parte integrantă a vieții profesionale și personale, tot mai multe voci avertizează asupra limitelor acestor tehnologii. O analiză publicată de Visual Capitalist în vara lui 2025, citată de Risco.ro, arată că modelele lingvistice mari – așa-numitele LLM (large language models) – se bazează în mare măsură pe conținut generat de utilizatori. Chatboți populari, precum ChatGPT sau Perplexity, își extrag informațiile din forumuri online și platforme colaborative, ridicând întrebări serioase cu privire la acuratețea și fiabilitatea răspunsurilor pe care le oferă.
Această dependență de surse deschise, unde oricine poate contribui, transformă inteligența artificială într-un instrument util, dar cu riscuri evidente. Pentru utilizatorii obișnuiți, consecințele pot însemna simple neclarități. Pentru profesioniști din domenii critice – medicină, finanțe, drept – informațiile incorecte pot genera decizii costisitoare sau chiar periculoase.
Surse deschise, conținut nefiltrat
Analiza realizată pe 150.000 de citări a scos la iveală o realitate îngrijorătoare: 40,1% dintre sursele la care fac referire modelele lingvistice provin de pe Reddit, iar 26,3% de pe Wikipedia. Urmează platforme precum YouTube (23,5%) și Google (23,3%), apoi, cu procente între 21% și 10%, site-uri precum Yelp, Facebook, Amazon, Tripadvisor, Mapbox, OpenStreetMap și Instagram. În coada listei, cu sub 10%, apar MapQuest, Walmart, eBay, LinkedIn, Quora, Home Depot, Yahoo, Target și Pinterest.
Aceste date arată cât de mult se bazează inteligența artificială pe discuții deschise și pe conținut întreținut de comunități online. Deși astfel de platforme oferă o cantitate uriașă de informații, ele nu sunt supuse unei verificări riguroase, iar conținutul poate fi modificat oricând. Wikipedia, de exemplu, este o resursă extrem de utilă pentru documentare rapidă, dar nu are statutul unei surse oficiale, iar corectitudinea articolelor depinde de bunăvoința și competența voluntarilor.
Această structură deschisă facilitează răspândirea rapidă a informației, dar creează și o vulnerabilitate majoră: modelele AI pot amplifica idei populare, chiar dacă acestea nu au fost niciodată verificate.
Riscurile pentru profesioniști și decidenți
Dependența de conținut generat de utilizatori aduce trei riscuri majore, evidențiate de specialiști. Primul este dezinformarea: afirmațiile incorecte sau părtinitoare pot fi preluate și prezentate de AI ca fiind corecte, fără ca utilizatorul să știe că lipsesc surse oficiale. Al doilea risc îl reprezintă „camera de ecou” – situația în care o narațiune populară, dar neverificată, este repetată de mai multe ori, căpătând o aparență de adevăr doar prin vizibilitate. În al treilea rând, lipsește autoritatea: pentru domenii sensibile, cum sunt sănătatea, finanțele sau legislația, platformele bazate pe conținut comunitar nu pot oferi garanții de exactitate.
Pentru medici, avocați sau analiști financiari, folosirea informațiilor generate de AI fără verificare poate avea consecințe directe asupra deciziilor și reputației profesionale. În lipsa unei supravegheri editoriale, chiar și cele mai avansate modele pot livra răspunsuri incomplete sau incorecte.
Experții recomandă prudență și discernământ atunci când se folosesc chatboți pentru activități importante. AI poate fi un instrument excelent pentru documentare rapidă, brainstorming sau traduceri, dar nu ar trebui să înlocuiască sursele oficiale și consultanța specializată. Verificarea informațiilor din mai multe surse independente rămâne esențială, mai ales în domenii critice.
De asemenea, dezvoltatorii de tehnologii AI sunt încurajați să îmbunătățească transparența asupra surselor folosite și să implementeze filtre mai stricte pentru a evita propagarea informațiilor false. O soluție ar fi colaborarea mai strânsă cu instituții academice, agenții guvernamentale și organizații profesionale, pentru a integra baze de date verificate în procesele de antrenare.
Inteligența artificială rămâne o inovație puternică, capabilă să revoluționeze modul în care căutăm și procesăm informații. Totuși, analiza Visual Capitalist arată clar că, în stadiul actual, utilizarea ei trebuie să fie însoțită de spirit critic. Chatboții nu pot fi tratați ca autorități absolute, ci ca un punct de plecare, un sprijin care are nevoie de validare umană. Numai astfel AI poate fi transformată dintr-un risc potențial într-un aliat de încredere.