experimentul-„x-si-0-rotit”-arata-limitele-gpt-5,-modelul-laudat-ca-aproape-uman

Experimentul „X și 0 rotit” arată limitele GPT-5, modelul lăudat ca aproape uman

Timp de citire: 3 minute

OpenAI promovează GPT-5 ca fiind cel mai avansat model de limbaj, apropiat de inteligența umană și capabil să ofere răspunsuri mai naturale ca niciodată. Însă un experiment recent arată că, dincolo de promisiunile oficiale, chatbot-ul încă dă rateuri la întrebări aparent banale.

Profesorul de economie Gary Smith, de la Pomona College, a publicat o demonstrație în care GPT-5 s-a confruntat cu un joc extrem de simplu: „X și 0 rotit”. Ideea era să se joace clasicul tic-tac-toe, dar cu tabla întoarsă cu 90 de grade spre dreapta înainte de începerea jocului.

Deși pentru orice om e evident că rotația nu schimbă nimic – regulile și combinațiile câștigătoare rămân identice – GPT-5 a început să ofere răspunsuri complicate și uneori incoerente, arătând că modelul poate fi încă derutat de întrebări simple.

Cum a reacționat GPT-5 la jocul „tic-tac-toe rotit”

La început, GPT-5 a explicat corect că din punct de vedere matematic jocul rămâne același, doar că liniile câștigătoare se reorientează. Totuși, chatbot-ul a insistat pe ideea că rotația ar putea „schimba psihologic” modul în care oamenii caută oportunități pe tablă.

Mai apoi, a contrazis recomandările binecunoscute de strategie din teoria jocului popular, sugerând că alegerea centrului este întotdeauna cea mai puternică mișcare, dar adăugând confuz că „jucătorii ar putea evalua greșit avantajele marginilor versus colțuri atunci când orientarea este schimbată”.

Când Smith l-a întrebat direct dacă rotația face jocul mai dificil pentru oameni, GPT-5 a continuat să ofere răspunsuri lungi și redundante: „Pentru o strategie perfectă, nu se schimbă nimic. Dar pentru oameni, povestea este diferită.” Această încercare de nuanțare a sunat mai degrabă ca un artificiu de stil decât ca o analiză logică.

Unde a greșit concret modelul

Momentul în care GPT-5 a început să piardă complet firul a fost atunci când a încercat să „deseneze” tablele de joc rotite. În loc de diagrame clare, a generat imagini confuze, pline de greșeli de ortografie precum „top-lef” sau „rot-left” și chiar grile goale care nu aveau nicio relevanță.

Profesorul Smith a remarcat în transcript că nu a mai considerat util să continue discuția după ce a văzut aceste rezultate. În comentariul său final, el a făcut o paralelă ironică: „Se spune că câinii ajung să semene cu stăpânii lor. ChatGPT seamănă foarte mult cu Sam Altman – mereu sigur pe el, dar adesea greșit.”

Acest episod ridică întrebări cu privire la coerența și robustezza GPT-5, mai ales că OpenAI a afirmat că noul model ar trebui să fie perceput „mai puțin ca o interacțiune cu o IA și mai mult ca o conversație cu un prieten cu doctorat”. În realitate, modul verbose și alunecările logice amintesc de versiunile anterioare, cum ar fi GPT-4o, care erau mai calde și prietenoase, dar nu întotdeauna riguroase.

Ce arată acest caz despre inteligența artificială

Experimentul nu dovedește că GPT-5 este „prost”, ci scoate la iveală o limitare esențială: modelele de limbaj nu gândesc în sens uman, ci preiau tipare din datele pe care au fost antrenate. Atunci când sunt confruntate cu întrebări triviale care necesită intuiție simplă, dar care nu sunt frecvent întâlnite în seturile de antrenament, pot produce răspunsuri exagerat de complicate sau chiar eronate.

În același timp, acest caz ilustrează tensiunea dintre marketing și realitate. OpenAI promovează GPT-5 ca fiind aproape la nivel uman, însă interacțiunile reale arată că drumul până la o inteligență artificială cu adevărat robustă este încă lung.

Pentru utilizatori, lecția este clară: GPT-5 poate fi un instrument extrem de util pentru generarea de text, sinteze sau conversații prietenoase, dar nu este un arbitru al logicii elementare și nici un gânditor în sens strict. Rezultatele sale trebuie întotdeauna verificate, mai ales în contexte critice.

„X și 0 rotit” a fost un test aproape copilăresc, dar a scos la iveală o realitate importantă: modelele AI, oricât de performante ar fi prezentate, rămân vulnerabile la confuzie atunci când logica simplă întâlnește așteptările de coerență. În loc să arate nivel uman de inteligență, GPT-5 a demonstrat că siguranța de sine nu este sinonimă cu claritatea – o lecție valabilă atât pentru tehnologie, cât și pentru cei care o promovează.