google-avertizeaza-asupra-unei-noi-generatii-de-malware-alimentate-de-inteligenta-artificiala

Google avertizează asupra unei noi generații de malware alimentate de inteligență artificială

Timp de citire: 3 minute

O echipă de cercetare a Google a identificat o tendință alarmantă în 2025: grupuri de hackeri folosesc acum inteligența artificială pentru a crea programe malware capabile să se modifice din mers, evitând detecția și adaptându-se în timp real. Raportul publicat de Google Threat Intelligence Group (GTIG) arată că aceste noi familii de malware integrează modele lingvistice mari (LLM), precum Gemini, în procesul de execuție, marcând o schimbare majoră în dinamica atacurilor cibernetice.

Noua tehnică, denumită de Google „just-in-time self-modification”, le permite acestor amenințări digitale să își rescrie propriul cod în timpul rulării, atingând un nivel de flexibilitate imposibil de obținut cu malware-ul tradițional. Exemplele recente – cum ar fi PromptFlux, PromptSteal și QuietVault – arată că lumea infracționalității cibernetice intră într-o nouă etapă, în care AI devine o armă la fel de periculoasă ca orice virus informatic.

Printre cele mai îngrijorătoare descoperiri ale cercetătorilor se numără PromptFlux, un malware experimental bazat pe VBScript, care folosește direct modelul Gemini al Google pentru a genera versiuni modificate ale propriului cod. Această capacitate de auto-ofuscare – adică de a-și ascunde intențiile reale în mod constant – face ca detecția sa de către soluțiile antivirus să fie extrem de dificilă.

Conform raportului GTIG, PromptFlux conține un modul numit „Thinking Robot”, care trimite periodic solicitări către Gemini pentru a primi instrucțiuni noi privind metodele de evitare a detecției. Cu alte cuvinte, malware-ul își „întreabă” propria sursă de inteligență artificială cum să nu fie prins. Google a confirmat că a blocat accesul acestui program la API-ul Gemini și a șters toate resursele asociate, însă natura adaptivă a acestuia ridică semne de întrebare privind viitorul securității digitale.

Deși PromptFlux se află încă într-un stadiu incipient și nu a provocat pagube majore, el demonstrează potențialul distructiv al combinației dintre AI și criminalitatea cibernetică. În prezent, se crede că este folosit de un grup cu motivații financiare, însă lipsa unei atribuiri clare sugerează că ar putea fi doar începutul unei campanii mult mai mari.

Pe lângă PromptFlux, Google a identificat și alte variante precum PromptSteal (sau LameHug) – un malware de tip „data miner” activ în Ucraina – și FruitShell, o PowerShell reverse shell care permite accesul la distanță pe dispozitive compromise. Mai mult, QuietVault, un furt inteligent de credențiale scris în JavaScript, vizează tokenuri GitHub și NPM, exfiltrând date către depozite create dinamic.

Abuzurile AI: de la grupuri de hackeri la state naționale

Raportul Google scoate la iveală și o serie de cazuri în care actori statali sau grupuri de hackeri sponsorizate de guverne au abuzat modelele AI pentru activități malițioase.

Un actor cu origini în China s-a dat drept participant la un concurs de tip Capture the Flag (CTF) pentru a păcăli filtrele de siguranță ale lui Gemini și a obține detalii despre vulnerabilități. Totodată, a folosit AI-ul pentru crearea de e-mailuri de phishing și pentru dezvoltarea de instrumente de exfiltrare a datelor.

Un alt grup, MuddyCoast (UNC3313), asociat Iranului, s-a prezentat ca „student” pentru a accesa Gemini în scopul dezvoltării și depanării de malware, expunând din greșeală domenii de comandă și control. În același timp, gruparea APT42, tot din Iran, a folosit Gemini pentru traduceri, generarea de texte de atragere și chiar pentru crearea unui „agent de procesare a datelor” capabil să transforme limbajul natural în interogări SQL – un instrument periculos pentru extragerea automată de informații personale.

De partea cealaltă, grupul chinez APT41 a folosit AI-ul pentru îmbunătățirea codului din infrastructura sa de comandă OSSTUN, iar actorii nord-coreeni Masan (UNC1069) și Pukchong (UNC4899) au folosit modele AI pentru furturi de criptomonede, campanii de phishing multilingve și dezvoltarea de lure-uri deepfake.

Google susține că, în toate aceste cazuri, a dezactivat conturile implicate și a întărit sistemele de protecție pentru modelele sale, adaptându-le în funcție de tacticile observate, astfel încât să devină mai dificil de exploatat în viitor.

Piața subterană a criminalității cibernetice bazate pe AI

Dincolo de actorii organizați, GTIG a descoperit o piață neagră în plină expansiune dedicată instrumentelor de criminalitate cibernetică alimentate de AI. Pe forumuri clandestine vorbitoare de engleză și rusă, vânzătorii oferă servicii care imită marketingul legitim al produselor de inteligență artificială, promițând „eficiență sporită” și „automatizare completă” pentru hackeri.

Oferta este variată: de la generatoare de deepfake-uri și instrumente de phishing automatizate, până la frameworkuri de dezvoltare de malware, analiză de vulnerabilități și instrumente de recunoaștere cibernetică. Unele dintre aceste servicii includ acces API sau prin Discord, oferind chiar versiuni gratuite pentru testare, într-un model similar cu aplicațiile comerciale.

Google avertizează că aceste inovații scad dramatic bariera tehnică pentru infractorii cibernetici, permițând chiar și persoanelor fără cunoștințe avansate să lanseze atacuri sofisticate. „Piața pentru instrumente AI rău intenționate devine tot mai matură”, se arată în raport. „Este doar o chestiune de timp până când aceste servicii vor înlocui complet metodele tradiționale de atac.”

În concluzie, gigantul american subliniază că abordarea dezvoltării AI trebuie să fie „curajoasă, dar responsabilă”, cu mecanisme stricte de protecție împotriva abuzului. Compania colaborează deja cu autoritățile internaționale pentru identificarea actorilor implicați și își folosește experiența acumulată în lupta cu amenințările cibernetice pentru a face modelele AI mai sigure.

Totuși, avertismentul rămâne clar: în timp ce inteligența artificială promite progres și inovație, ea poate deveni – în mâinile greșite – cel mai puternic instrument de atac cibernetic al erei digitale.