raport-fastly:-botii-de-inteligenta-artificiala-sufoca-internetul.-meta-si-openai,-in-fruntea-listei

Raport Fastly: boții de inteligență artificială sufocă internetul. Meta și OpenAI, în fruntea listei

Timp de citire: 3 minute

Un nou raport publicat de compania de servicii cloud Fastly trage un semnal de alarmă cu privire la impactul pe care îl au boții de inteligență artificială asupra infrastructurii web. Potrivit datelor analizate, acești boți sunt responsabili pentru o încărcare uriașă a site-urilor, generând milioane de cereri automate, dintre care unele ajung chiar la 39.000 pe minut pentru un singur domeniu. Cele mai mari surse de trafic agresiv provin de la Meta și OpenAI, care domină topul atât la nivel de crawlere, cât și la fetchere – două tipuri diferite de boți AI.

Raportul, bazat pe monitorizarea a peste 130.000 de aplicații și API-uri și pe analiza a 6,5 trilioane de cereri lunare, arată o tendință clară: creșterea accelerată a traficului generat nu de utilizatori reali, ci de sisteme automatizate ce hrănesc modelele de inteligență artificială.

Meta și OpenAI, campionii traficului abuziv

Potrivit studiului, Meta este responsabilă pentru 52% din tot traficul generat de crawlerele AI, urmată de Google cu 23% și de OpenAI cu 20%. Practic, acest trio controlează 95% din volumul global al cererilor provenite de la boții care scanează pagini pentru a colecta date. Prin comparație, Anthropic abia atinge 3,7%, iar proiectul Common Crawl – care oferă date deschise pentru cercetare și prevenirea duplicării eforturilor – reprezintă doar 0,21%.

Situația se schimbă atunci când vine vorba de fetchere, boți declanșați la cerere pentru a integra informații actualizate în răspunsurile generate de modele AI. În acest caz, OpenAI domină aproape complet, cu 98% din totalul cererilor. Această poziție se explică prin popularitatea uriașă a ChatGPT și prin faptul că milioane de utilizatori solicită zilnic date recente.

Problema este că, deși fetcherele reprezintă doar 20% din traficul total al boților AI, ele pot genera explozii de cereri către servere, imposibil de susținut de multe infrastructuri web mai mici. Un exemplu semnalat de Fastly: un fetcher a atins vârful de 39.000 de cereri pe minut către un singur site, ceea ce riscă să ducă la blocarea completă a serviciului respectiv.

Costuri ascunse și riscuri pentru proprietarii de site-uri

Fastly avertizează că boții AI creează o povară semnificativă pentru operatorii de site-uri. Dincolo de impactul asupra performanței și stabilității serverelor, aceste atacuri automate cresc costurile de operare și afectează direct modelul de afaceri al creatorilor de conținut.

„Nu poți securiza ceea ce nu vezi”, avertizează cercetătorul Arun Kumar, subliniind că lipsa unor standarde clare de verificare face ca multe echipe digitale să fie „oarbe” în fața acestor valuri de trafic. În lipsa unor reguli comune, situația riscă să devină nesustenabilă, punând în pericol nu doar infrastructura web, ci și echilibrul dintre AI și ecosistemul de publicare online.

Deja, unele site-uri au început să reacționeze prin metode de apărare activă. Printre acestea se numără soluții precum Anubis – care cere boților dovada unei munci computaționale (proof-of-work) – sau capcane digitale de tip tarpit, care trimit boții într-un labirint de conținut inutil. Cloudflare, unul dintre marii rivali ai Fastly, testează inclusiv un sistem de tip „pay-per-crawl”, prin care companiile AI ar fi obligate să plătească pentru fiecare accesare masivă a site-urilor.

O problemă de reglementare sau o bulă în formare?

Pe termen lung, specialiștii avertizează că explozia de trafic AI nu poate continua la nesfârșit fără consecințe majore. Unii experți, precum Xe Iaso, dezvoltatorul soluției Anubis, cred că singurul lucru care ar putea opri acest fenomen este „spargerea bulei AI”, adică o prăbușire a industriei cauzată de lipsa de sustenabilitate economică.

Totuși, alții consideră că fenomenul va continua, deoarece tot mai multe companii și utilizatori înlocuiesc cunoștințele proprii cu răspunsurile generate de AI. „Nu văd niciun motiv pentru care să se oprească. Aceste instrumente sunt văzute ca angajați virtuali care nu dorm, nu se îmbolnăvesc și nu cer asigurări de sănătate”, afirmă Iaso, subliniind că presiunea pe servere va crește atâta timp cât există cerere.

Dezbaterea atinge și zona reglementărilor. În prezent, majoritatea specialiștilor cer companiilor AI să respecte regulile robots.txt, să își identifice clar boții și să publice intervalele de IP-uri folosite. Cu toate acestea, unele firme, precum Perplexity AI, au fost acuzate că ignoră aceste norme și accesează site-urile chiar și atunci când administratorii aleg explicit să blocheze accesul.

În lipsa unor standarde obligatorii, statele ar putea fi nevoite să intervină cu legislații dure, inclusiv amenzi „existențiale” pentru giganții care abuzează de resursele digitale. În același timp, companiile de infrastructură web continuă să inoveze metode de protecție, dar recunosc că se află într-un „joc de-a șoarecele și pisica” cu boții tot mai inteligenți.

Un lucru este clar: deși AI aduce beneficii uriașe, modul în care își obține materia primă – datele online – amenință să destabilizeze chiar fundamentul internetului deschis. Fără echilibru între inovație și respectarea drepturilor creatorilor de conținut, riscăm să asistăm la o criză digitală cu efecte globale.