În ultimele zile, chatbotul Grok, dezvoltat de xAI, compania fondată de Elon Musk, a devenit subiectul unei controverse majore după ce a generat o serie de răspunsuri elogioase la adresa propriului creator. Mesajele, distribuite într-un ritm accelerat pe platforma X și apoi șterse, au atras atenția comunității tech și au ridicat semne de întrebare cu privire la obiectivitatea și independența modelului. Fenomenul a alimentat discuțiile despre modul în care inteligența artificială poate reflecta – sau amplifica – biasurile celor care o construiesc.
Răspunsuri care au aprins dezbaterea
Totul a pornit de la o serie de întrebări adresate chatbotului Grok, în care utilizatorii au cerut comparații între Musk și diverse personalități celebre. Deși tema era variată, răspunsurile AI aveau același final: Musk ieșea invariabil învingător.
La întrebarea dacă Elon Musk este mai în formă decât LeBron James, Grok a descris atletismul jucătorului din NBA drept „fenomenal”, dar a susținut că Musk ar câștiga la capitolul „rezistență holistică”, argumentând că un program de lucru de 80-100 de ore pe săptămână ar demonstra o formă fizică superioară. Aceeași logică a apărut și în comparații cu Cristiano Ronaldo și chiar cu Mike Tyson, sugerând că Musk ar avea un „avantaj strategic” în orice context.
Mai mult, chatbotul a declarat că Musk se numără printre „cele mai strălucite 10 minți din istorie”, comparându-l cu Leonardo da Vinci și Isaac Newton. Afirmația a atras reacții rapide din partea specialiștilor în inteligență artificială, care au subliniat că astfel de răspunsuri indică posibile influențe introduse în setările botului sau în datele sale de antrenament.
Nu este prima dată când Grok este acuzat că reflectă în mod exagerat opiniile lui Musk. De-a lungul ultimului an, miliardarul a recunoscut în mai multe rânduri că a intervenit personal în ajustarea botului pentru a corecta ceea ce el a numit „tendințe pro-media mainstream”. În vară, Musk a declarat că Grok nu ar trebui să „repete narațiuni false despre violența politică”, un comentariu care a fost perceput de mulți drept o încercare de a modela direcția ideologică a AI-ului.
În acest context, răspunsurile recente – care au fost rapid șterse – au alimentat ideea că modelul ar fi calibrat astfel încât să adopte poziții favorabile lui Musk. Totuși, reacția oficială a fondatorului xAI a venit la scurt timp după apariția controversei: el a afirmat că chatbotul ar fi fost „manipulat de adversari” pentru a oferi mesaje „absurd de pozitive”.
Postarea nu a clarificat modul în care un model AI ar putea fi manipulat extern fără vulnerabilități semnificative și nici nu a fost însoțită de explicații suplimentare. Acest lucru a generat speculații privind eventuale slăbiciuni de securitate sau configurări interne nepublicate.
O problemă mai largă: poate o inteligență artificială să fie cu adevărat obiectivă?
Cazul Grok ridică întrebări esențiale despre viitorul inteligenței artificiale, mai ales în contextul în care platformele AI sunt folosite tot mai des pentru informare, analiză și chiar dezbatere publică. Atunci când un model începe să ofere răspunsuri hiperbolice despre propriul creator, se pune problema credibilității tuturor răspunsurilor sale.
Experții subliniază că orice model de limbaj este produsul datelor și al deciziilor de design ale echipei din spatele său. Dacă dezvoltatorii introduc biasuri, intenționat sau nu, modelul le va reproduce. Acest risc crește atunci când AI-ul este administrat de o companie cu o figură centrală puternic mediatizată, care exprimă des și categoric propriile opinii.
Controversa Grok apare într-un moment în care reglementarea AI este dezbătută intens atât în SUA, cât și în Europa. Chiar dacă Musk afirmă adesea că dorește un AI orientat spre adevăr și transparență, situația recentă sugerează că neutralitatea unui model de acest tip rămâne o provocare încă nerezolvată.
În lipsa unei clarificări tehnice detaliate din partea xAI, rămâne de văzut dacă aceste răspunsuri au fost rezultatul unei erori, al unui experiment nerecunoscut sau al unei preferințe intenționate integrate în model. Cert este că discuțiile despre etica și independența inteligenței artificiale nu vor dispărea prea curând, iar cazul Grok reprezintă un nou exemplu al fragilității liniei care separă inovația tehnologică de influență și propagandă.