Compania de consultanță Deloitte Australia a fost nevoită să ramburseze o parte din suma plătită de guvernul australian pentru un raport realizat cu ajutorul inteligenței artificiale, după ce documentul s-a dovedit a conține citări false și referințe la studii inexistente. Incidentul, devenit public în urma unei anchete jurnalistice, readuce în prim-plan problema tot mai presantă a dependenței de modele AI în activități profesionale complexe și a lipsei de transparență privind utilizarea acestora.
Raportul, intitulat „Targeted Compliance Framework Assurance Review”, a fost comandat de Departamentul pentru Muncă și Relații de Muncă (DEWR) al Australiei și finalizat în iulie 2025. Costul său a fost de aproximativ 440.000 de dolari australieni (circa 290.000 de dolari americani). Scopul documentului era de a analiza infrastructura tehnică folosită de guvern pentru automatizarea penalizărilor aplicate în sistemul de asistență socială.
Problemele au apărut însă imediat după publicare, când mai mulți academicieni au observat că raportul includea zeci de citări inexacte, ba chiar complet inventate. Printre acestea, se aflau și referințe către lucrări atribuite unor cercetători reali, dar care nu publicaseră niciodată studiile menționate.
Primul care a atras atenția asupra neregulilor a fost Chris Rudge, director adjunct al Centrului pentru Dreptul Sănătății de la Universitatea din Sydney. Acesta a observat că raportul cita mai multe articole inexistente, inclusiv lucrări atribuite profesoarei Lisa Burton Crawford, o specialistă reală în drept administrativ.
„Este îngrijorător să-mi văd numele asociat cu cercetări pe care nu le-am scris. Vreau o explicație clară din partea Deloitte despre modul în care au fost generate aceste referințe”, a declarat profesoara pentru cotidianul Australian Financial Review.
Ulterior, o analiză mai detaliată a arătat că din cele 141 de surse bibliografice menționate în versiunea originală, doar 127 au fost reale. Restul — aproape 10% — au fost complet fabricate de modelul AI folosit pentru redactare. De asemenea, o parte din citatele atribuite unor decizii judecătorești au fost inventate, inclusiv una care menționa o sentință semnată de „judecătoarea Jennifer Davis” — o eroare dublă, întrucât numele corect al magistratei este Jennifer Davies, iar decizia respectivă nu a existat niciodată.
Deloitte admite utilizarea GPT-4o, dar abia după scandal
Într-o versiune revizuită a raportului, publicată discret de DEWR la începutul lunii octombrie, Deloitte a recunoscut că a folosit „un lanț de instrumente bazat pe modelul de limbaj generativ GPT-4o, disponibil prin Azure OpenAI”. În document, această tehnologie era menționată ca fiind parte a procesului tehnic prin care firma a evaluat corespondența dintre codul software al sistemului de penalizări și cerințele legale.
Formularea, ascunsă în paginile 58–59 ale raportului de 273 de pagini, a fost prima confirmare publică a faptului că inteligența artificială fusese implicată activ în redactarea conținutului analitic.
Într-un comunicat ulterior, Deloitte a afirmat că va returna „ultima tranșă” din suma plătită de guvern, fără a specifica valoarea exactă a acesteia. Compania a insistat că „substanța revizuirii rămâne neschimbată” și că „recomandările formulate sunt valide”, în ciuda erorilor identificate.
Departamentul de Muncă a confirmat că raportul va fi menținut ca document de lucru, dar a admis că a fost „corectat” pentru a elimina citările false.
O problemă de etică și încredere în era AI
Pentru mediul academic și juridic australian, incidentul ridică semne de întrebare serioase legate de transparența utilizării inteligenței artificiale în activități profesionale. Chris Rudge a declarat pentru Australian Financial Review că „nu poți avea încredere în concluziile unui raport construit pe o metodologie eronată și nedezvăluită inițial”.
„Deloitte a admis că a folosit AI generativă pentru o sarcină analitică de bază, dar a eșuat în a comunica acest lucru. Într-un context guvernamental, acest lucru subminează încrederea în procesele de audit și în integritatea recomandărilor oferite”, a adăugat el.
Cazul a reaprins și dezbaterea despre așa-numitele „halucinații” ale modelelor AI — situații în care algoritmii generează informații aparent credibile, dar complet inventate. Problema este cunoscută de ani buni în domeniu, însă incidentul Deloitte arată cât de ușor aceste erori pot pătrunde în documente oficiale cu impact financiar și legislativ major.
Mai mult, episodul a atras atenția asupra lipsei unor reglementări clare privind utilizarea modelelor AI în consultanță, cercetare sau administrație publică. Deși companii precum Google și Microsoft își avertizează utilizatorii că modelele pot produce rezultate „creative, dar inexacte”, astfel de precauții nu sunt suficiente atunci când miza este de ordin instituțional și financiar.
Lecția Deloitte: între inovație și responsabilitate
Incidentul din Australia oferă o lecție valoroasă pentru întreaga industrie: utilizarea inteligenței artificiale nu poate substitui responsabilitatea profesională și verificarea umană. Într-o eră în care tehnologia promite eficiență sporită, tentația de a delega sarcini complexe către modele generative poate avea consecințe neașteptate.
Pentru Deloitte, scandalul este o lovitură reputațională importantă, mai ales într-un moment în care marile firme de consultanță investesc masiv în soluții bazate pe AI. Pentru guverne și instituții publice, el devine un semnal de alarmă: automatizarea analizei nu trebuie să vină fără garanții etice, verificări și transparență.
Cazul rămâne un precedent semnificativ — unul care ar putea determina adoptarea unor standarde mai stricte pentru utilizarea inteligenței artificiale în domenii unde acuratețea și responsabilitatea publică sunt esențiale.