Un nou model de inteligență artificială, antrenat cu o tehnică specială de reinforcement learning, a reușit să creeze malware capabil să ocolească sistemul Microsoft Defender for Endpoint în mod fiabil. Anunțat oficial în cadrul conferinței Black Hat 2025 din Las Vegas de către Kyle Avery, specialist în securitate ofensivă la Outflank, acest tool nu este un simplu experiment academic – ci un prototip care funcționează și care ar putea deveni, foarte curând, o unealtă periculoasă pentru atacatori.
Timp de ani de zile, lumea cibernetică a fost preocupată de posibilitatea ca modelele LLM (Large Language Models) să fie folosite pentru scrierea de malware. Până acum, cazurile cunoscute s-au limitat la scripturi rudimentare, emailuri de phishing și analiză de țintă. Însă acest proiect deschide o nouă etapă: AI care învață, pe cont propriu, să păcălească soluțiile de securitate.
Modelul antrenat de Avery folosește o versiune open-source a Qwen 2.5, plasată într-un mediu controlat, unde interacționează cu Microsoft Defender și învață, prin încercări și erori, să evite alertele de securitate. A fost nevoie de sute de sesiuni de testare și de un buget de aproximativ 1.500 de dolari – ceea ce demonstrează că dezvoltarea unor astfel de sisteme nu mai este rezervată doar guvernelor sau corporațiilor.
Reinforcement learning: cheia succesului în evaziune digitală
Ceea ce diferențiază acest model AI de alte abordări anterioare este utilizarea în premieră a unui proces de reinforcement learning aplicat direct în scenarii de securitate ofensivă. Practic, în loc să fie alimentat cu exemple de malware sau să copieze coduri existente, modelul a fost antrenat să învețe singur ce funcționează și ce nu. La fiecare iterație, era recompensat pentru rezultate parțiale – un malware funcțional, chiar dacă era detectat – și apoi rafinat treptat, până când a reușit să genereze fișiere complet nedetectabile.
Modelul comunica constant cu o interfață de tip API conectată la Microsoft Defender, ceea ce îi permitea să primească în timp real scorul de severitate al alertelor declanșate de fiecare versiune a codului produs. Obiectivul? Să obțină un scor din ce în ce mai scăzut, până când nu mai apărea nicio alertă.
La final, eficiența era clară: aproximativ 8% dintre mostrele generate treceau complet nedetectate, o rată semnificativ mai mare decât a altor modele AI de top, precum cele dezvoltate de Anthropic sau DeepSeek, care abia depășeau pragul de 1%.
Ce este și mai îngrijorător? Dimensiunea redusă a modelului: acesta poate rula pe o simplă placă grafică de gaming, fără a necesita infrastructură specială, ceea ce îl face accesibil pentru orice atacator cu cunoștințe tehnice moderate.
Ce înseamnă asta pentru viitorul securității cibernetice
Această demonstrație practică ridică serioase semne de întrebare despre viitorul securității digitale. Dacă un specialist a reușit, cu resurse limitate, să antreneze un AI care păcălește unul dintre cele mai utilizate sisteme de protecție endpoint din lume, ce se va întâmpla când această tehnologie va cădea în mâinile actorilor malițioși?
Hackerii ar putea folosi AI nu doar pentru scrierea de cod rău intenționat, ci și pentru testarea continuă a soluțiilor de securitate, identificarea vulnerabilităților din infrastructuri și chiar pentru automatizarea atacurilor la scară largă. Practic, asistăm la începutul unei ere în care lupta cibernetică va fi dusă din ce în ce mai mult de algoritmi care învață, se adaptează și atacă autonom.
Kyle Avery avertizează că oprirea antrenamentului modelului la 8% eficiență a fost pur arbitrară – dacă ar fi continuat, e foarte probabil că rata de succes ar fi crescut și mai mult. Tot el spune că este „doar o chestiune de timp” până când astfel de metode vor fi replicate și extinse de grupări infracționale bine finanțate.
Concluzie: o nouă frontieră în securitatea digitală
Nu mai este vorba despre dacă inteligența artificială va fi folosită pentru scopuri malițioase, ci când și în ce mod. Demonstrația de la Black Hat 2025 nu este o predicție apocaliptică, ci o realitate concretă. Este esențial ca firmele de securitate, dezvoltatorii de software și autoritățile să ia în serios aceste evoluții și să se pregătească pentru un nou tip de adversar: algoritmul auto-antrenat.
Pentru tine, utilizatorul final sau profesionistul IT, asta înseamnă să fii mai atent ca niciodată la update-uri, comportamente suspecte și instrumente de protecție de ultimă generație. Într-o lume unde malware-ul se scrie singur și scapă de detecție, vigilența este singura linie de apărare care contează cu adevărat.