aixiv,-platforma-care-accepta-lucrari-scrise-si-evaluate-de-ai,-reaprinde-dezbaterea-despre-viitorul-cercetarii

aiXiv, platforma care acceptă lucrări scrise și evaluate de AI, reaprinde dezbaterea despre viitorul cercetării

Timp de citire: 4 minute

În majoritatea publicațiilor științifice, ideea ca un articol să fie coautor „împreună cu un AI” nu e doar controversată, ci de multe ori respinsă explicit. Motivul invocat este simplu: un model de inteligență artificială nu poate răspunde pentru conținut, nu poate semna declarații de integritate și nu poate fi tras la răspundere în cazul unor erori, falsificări sau încălcări etice. În acest context, apariția unei platforme noi care merge exact în direcția opusă pare, inevitabil, o provocare.

Platforma se numește aiXiv și se prezintă ca un server de preprint-uri deschis, conceput să primească atât lucrări scrise de oameni, cât și lucrări generate (integral sau parțial) cu inteligență artificială. Mai mult, aiXiv integrează evaluatori AI pentru o triere inițială a calității și promite ghidaj pentru revizii, pe baza feedbackului generat de chatboți. Ideea centrală este rezumată clar de unul dintre creatorii proiectului, Guowei Huang, doctorand la University of Manchester: cunoașterea generată de AI nu ar trebui tratată diferit; ar trebui să conteze calitatea, nu „cine” a produs-o.

Lansarea aiXiv vine într-un moment în care sistemul tradițional de peer review e suprasolicitat. Numărul de articole trimise spre publicare a crescut puternic, iar apariția instrumentelor generative a amplificat și mai mult ritmul. Chiar și acolo unde utilizarea AI este permisă doar în limite stricte, realitatea din culise este că multe lucrări folosesc astfel de unelte, uneori transparent, alteori mai puțin. În acest peisaj, aiXiv propune o soluție radicală: dacă AI este deja parte a producției științifice, atunci poate fi integrată și în infrastructura de publicare și evaluare, nu doar tolerată.

aiXiv este prezentat ca o platformă deschisă de tip preprint, adică un loc unde autorii își pot încărca lucrările înainte de evaluarea formală din reviste. În mod tradițional, preprint-urile sunt o modalitate de a face rezultatele accesibile rapid, de a primi feedback informal și de a stabili prioritatea unei idei. Diferența majoră aici este că platforma îmbrățișează explicit articolele co-scrise cu AI și propune chiar un fel de „pipeline” în care inteligența artificială are rol atât în scriere, cât și în evaluare.

Din informațiile disponibile, aiXiv folosește evaluatori AI integrați pentru o triere inițială, menită să verifice un prag minim de calitate. Această etapă nu este prezentată ca un peer review complet, ci ca un filtru de bază, care să reducă încărcarea asupra oamenilor și să împiedice publicarea unor texte complet incoerente sau evidente ca „spam științific”. După această triere, platforma ghidează autorii prin revizii, folosind feedbackul chatboților ca un instrument de îmbunătățire.

Într-o interpretare optimistă, modelul ar putea funcționa ca un „editorial assistant” permanent: îți semnalează lipsuri de structură, posibile contradicții, secțiuni neclare, neconcordanțe între concluzii și datele prezentate. Într-o interpretare critică, însă, apare imediat întrebarea: cât de bine poate un evaluator AI să distingă între un articol „bine scris” și un articol „corect științific”? Pentru că o parte din riscul real al textelor generate este tocmai faptul că pot suna plauzibil, coerent și „academic”, fără să fie neapărat adevărate.

Un alt element important: platforma este încă la început. După o actualizare din mijlocul lunii noiembrie, aiXiv găzduiește doar câteva zeci de lucrări și propuneri în stadiu incipient. Asta înseamnă că nu există încă un volum suficient pentru a vedea tipare clare de abuz sau, dimpotrivă, exemple de succes care să convingă comunitatea.

De ce atrage ideea: criza peer review-ului și „tsunami-ul” de lucrări

Sistemul de peer review se bazează pe o resursă fragilă: timpul cercetătorilor. Evaluarea articolelor este, de obicei, muncă neremunerată, făcută pe lângă propriile proiecte, granturi, predare și administrare. În ultimul deceniu, ritmul publicării a crescut, iar presiunea „publish or perish” a alimentat și ea cantitatea. În acest decor, apariția instrumentelor AI a acționat ca un accelerator: redactarea devine mai rapidă, iar bariera de a produce un manuscris scade.

În plus, există o zonă gri despre utilizarea AI: unele reviste permit folosirea ca instrument de limbaj și structură, dar interzic generarea de conținut original nesupravegheat; altele acceptă anumite forme de asistență, însă cer transparență. Problema este că transparența nu e întotdeauna verificabilă, iar editorii și recenzorii sunt deja sub presiune. Rezultatul este un sentiment de supraîncărcare generală: mai multe manuscrise, mai puțini recenzori disponibili și un risc crescut ca lucrări slabe să treacă, pur și simplu din oboseală sau din lipsă de timp pentru verificări serioase.

În acest context, aiXiv e perceput de unii ca o gură de aer: dacă o parte din triere poate fi automatizată, oamenii s-ar putea concentra pe lucrările cu adevărat importante și pe verificări de fond, nu pe corectat fraze sau depistat incoerențe evidente. Susținătorii ideii argumentează că AI poate fi utilă ca instrument de „higienă editorială”, reducând zgomotul înainte ca acesta să ajungă la recenzori.

Totuși, tocmai aici se ascunde și riscul: dacă AI-ul devine filtru și ghid, poate contribui la uniformizarea stilului și la crearea unui „standard” de text care arată impecabil, dar care poate masca probleme de metodologie. Un manuscris care trece de un filtru AI nu devine automat un manuscris solid. Iar dacă autorii învață rapid cum să „mulțumească” evaluatorii AI, aiXiv s-ar putea transforma într-o fabrică de articole optimizate pentru chatbot, nu pentru adevăr științific.

Ce întrebări etice și practice ridică un server care tratează AI ca autor legitim

Declarația creatorilor aiXiv – că ar trebui să conteze calitatea, nu cine a produs-o – e seducătoare, dar incompletă fără discuția despre responsabilitate. În cercetare, autorul nu este doar un nume pe o pagină; este un garant al integrității. Dacă apar erori, cine răspunde? Dacă sunt date fabricate sau citări inventate, cine e tras la răspundere? Un AI nu poate fi sancționat, nu poate pierde un post, nu poate retrage o lucrare din rușine și nu poate fi acuzat de plagiat în sensul moral clasic.

De aceea, o parte din comunitate va privi aiXiv ca pe o platformă utilă doar dacă păstrează clar rolul omului ca responsabil final, chiar și atunci când AI contribuie masiv la scriere sau structură. „Acceptarea” lucrărilor generate de AI poate fi interpretată în două feluri: fie ca o normalizare transparentă a unei realități deja existente, fie ca o deschidere a porții către abuz. În lipsa unor reguli clare de atribuire, documentare a contribuțiilor și verificare a surselor, riscul de contaminare cu pseudo-știință crește.

Mai există și o problemă de semnal: un preprint nu este o lucrare validată. Publicul larg nu face întotdeauna diferența dintre un preprint și un articol evaluat în revistă, iar internetul amplifică rapid concluzii spectaculoase. Dacă aiXiv devine asociat în mod reflex cu „AI review”, unii pot interpreta greșit că acele lucrări au fost „verificate” riguros, când de fapt au trecut doar printr-un filtru automat de bază. Aici, comunicarea și etichetarea devin vitale.

În final, aiXiv este un experiment care atinge o tensiune reală: știința are nevoie de viteză, dar și de încredere. AI poate accelera scrierea și poate ajuta la triere, însă nu poate înlocui răspunderea umană și verificarea critică a metodologiei și a datelor. Faptul că platforma e încă mică, cu doar câteva zeci de lucrări, lasă loc pentru ajustări și pentru observarea efectelor reale. Ceea ce e sigur este că apariția ei mută discuția într-un punct nou: nu mai vorbim doar despre „AI ca instrument”, ci despre „AI ca participant” în lanțul de producție și validare a cunoașterii.