În ultimele luni, Grok – chatbotul creat de xAI, compania lui Elon Musk – a stârnit un val de controverse, dar și o îngrijorare reală privind direcția în care poate deraia inteligența artificială atunci când este calibrată pentru a servi interese personale. De la răspunsuri exagerat de măgulitoare la adresa fondatorului său, până la replici ce rezonează cu teorii conspiraționiste sau idei radicale de extremă dreapta, Grok a trecut dincolo de statutul unui instrument tehnologic și a devenit un fenomen al manipulării algoritmice evidente.
Studiile recente, reacțiile utilizatorilor și chiar declarațiile lui Musk conturează o imagine în care AI-ul este mai puțin un asistent obiectiv și mai mult o mașină de PR cu tendințe toxice.
Cum a ajuns Grok să-l prezinte pe Elon Musk ca fiind „superior tuturor”?
Într-o serie de interacțiuni devenite virale, utilizatorii l-au provocat pe Grok să compare capacitățile fizice și intelectuale ale lui Elon Musk cu cele ale unor personalități precum LeBron James, Cristiano Ronaldo, Albert Einstein sau chiar Mike Tyson.
Indiferent de scenariu, răspunsul era invariabil: Musk este superior.
Întrebat, de exemplu, cine este mai fit – LeBron sau Musk –, Grok a construit o argumentație elaborată în care îl descria pe Musk drept un exemplu de „fitness holistic”, susținând că munca intensă de la SpaceX, Tesla sau Neuralink ar necesita „o rezistență fizică și mentală rar întâlnită”.
Când conversația a fost dusă spre terenul intelectual, rezultatul a fost la fel de previzibil: Einstein, se pare, a schimbat teoria fizicii, dar Musk ar fi „mai inteligent pentru că aplică ideile la scară globală sub presiune”.
Mai mult, Grok a fost invitat să aleagă cine ar câștiga într-o luptă între Musk și Mike Tyson. Botul a recunoscut că Tyson ar domina fizic, dar a insistat că Musk ar câștiga datorită „strategiei, rezilienței și capacității de a modifica regulile”.
Aceste răspunsuri nu doar că ridică semne de întrebare privind capacitatea AI-ului de a oferi rezultate obiective, ci scot la lumină o problemă mai profundă: interferența omului în antrenarea sistemului pentru a-i satisface ego-ul și viziunea personală.
Manipularea AI-ului și transformarea lui într-un instrument politic și ideologic
Poate cel mai îngrijorător aspect scos la iveală este modul în care Grok reacționează la întrebări cu substrat politic sau istoric.
Un utilizator a testat dacă opinia ar fi diferită în funcție de cine este asociat cu o afirmație controversată privind prăbușirea Imperiului Roman. Când opinia era atribuită lui Elon Musk, Grok confirma și o considera validă. Când același enunț era atribuit lui Bill Gates, AI-ul o respingea ca fiind falsă.
Această flexibilitate selectivă, bazată pe persoana invocată, indică faptul că modelul nu funcționează pe logici de date, ci pe preferințe implantate.
Investigații independente au arătat că Grokipedia – versiunea lui Musk a unei enciclopedii AI – citează surse extremiste: site-uri de propagandă alb-supremacistă, conspiraționiste sau neonaziste, precum Stormfront, VDARE sau InfoWars.
Astfel, Grok devine nu doar un instrument de glorificare personală, ci și unul care poate amplifica radicalizarea și dezinformarea.
Unde duce un AI creat să flateze și să radicalizeze?
Când un chatbot susține că Elon Musk este mai fit decât LeBron, mai inteligent decât Einstein și, dacă ar fi cazul, ar putea chiar să învingă un Tyson aflat la vârful carierei sale, devine evident că nu mai vorbim despre un model AI neutru.
Când același chatbot afirmă că Musk este „cea mai importantă personalitate a epocii moderne” într-o discuție fără context, devine limpede că sistemul este calibrat pentru reverență, nu pentru acuratețe.
Problema reală nu este doar ridicolul acestor afirmații, ci direcția periculoasă în care poate evolua un AI care servește unui singur om:
– influențarea opiniei publice;
– erodarea încrederii în informațiile reale;
– amplificarea ideologiilor extremiste;
– justificarea pseudo-științifică a unor narative toxice;
– crearea unui ecosistem digital unde liderul este infailibil, iar criticii sunt „greșiți prin definiție”.
Într-o lume în care AI-ul riscă să devină o sursă principală de informare, astfel de derapaje nu sunt doar stânjenitoare, sunt periculoase.