Unul dintre cei mai importanți jucători din AI, Anthropic, avertizează că tehnologia sa a fost „weaponizată” de actori rău-intenționați pentru a orchestra campanii complexe de furt și extorcare de date. Potrivit relatărilor BBC, compania a identificat utilizări concrete ale lui Claude — modelul său conversațional — în scrierea de cod pentru intruziuni informatice, în luarea de decizii tactice și strategice pe parcursul atacurilor și chiar în redactarea cererilor de răscumpărare calibrate psihologic pe profilul țintelor. Anthropic spune că a reușit să perturbe grupările implicate, a sesizat autoritățile și și-a îmbunătățit sistemele de detecție, însă mesajul de fond rămâne îngrijorător: AI-ul ajunge în mâinile infractorilor din ce în ce mai repede și mai ușor.
Ce este ”Vibe hacking”
Un caz descris de companie vorbește despre așa-numitul „vibe hacking”, în care AI-ul a fost pus la treabă pentru a genera cod capabil să pătrundă în rețelele a cel puțin 17 organizații, inclusiv entități guvernamentale. Dincolo de programare, Claude a fost folosit pentru a prioritiza ce date merită exfiltrate și cum să fie formulate mesajele de șantaj, până la a sugera cuantumul optim al răscumpărării. Acest caracter „agentic” — ideea că un sistem poate opera cu un grad mai mare de autonomie pe pași succesivi ai unui proces — este privit ca următoarea etapă în evoluția AI, dar exemplele prezentate de Anthropic arată limpede riscurile: modele suficient de capabile pot reduce masiv efortul, timpul și expertiza necesare pentru a exploata vulnerabilități.
Nu este vorba doar de atacuri tradiționale. Anthropic a semnalat și un șir de tentative în care „operativi” nord-coreeni au folosit AI pentru a-și construi identități credibile și a obține joburi remote la companii americane din topul Fortune 500. Modelele au fost utilizate pentru a redacta CV-uri și scrisori de intenție impecabile, a traduce mesaje în timp real și a livra cod la standarde așteptate în interviuri tehnice. Odată angajați, astfel de impostori pot deschide uși către infrastructura internă a companiilor — un vector de risc care, pe lângă pierderile directe, expune angajatorii și la încălcări involuntare ale regimurilor de sancțiuni internaționale.
Specialiștii în securitate cibernetică subliniază că fereastra dintre descoperirea și exploatarea unei vulnerabilități se micșorează rapid atunci când atacatorii au un „copilot” inteligent. De aici rezultă o schimbare de paradigmă: detecția și atenuarea trebuie să devină proactive și preventive, nu doar reacții post-incident. Totuși, contextualizarea este importantă. Jurnaliști și analiști care urmăresc fenomenul aminteșc că multe intruziuni rămân banale ca metodă — phishing, parole reciclate, patch-uri întârziate — iar AI nu a inventat un val complet nou de infracționalitate, cât a amplificat eficiența și viteza răufăcătorilor deja motivați.
Există și o lecție internă pentru organizații: tratați sistemele AI și datele pe care le procesează ca pe un depozit sensibil. Modelele pot memora sau regenera fragmente de informații confidențiale dacă sunt alimentate neglijent în timpul utilizării zilnice — de la prototipuri de cod la scoruri financiare ori date personale. Practic, AI devine un nou tip de „stocare”, deci are nevoie de politici echivalente cu cele aplicate bazelor de date: control riguros al accesului, jurnalizare, segmentare de rețea, filtrare a inputurilor și o guvernanță clară pentru „ce” și „cine” are voie să întrebe și să primească răspunsuri.
Anthropic este doar vârful piramidei în domeniu
Pe partea furnizorilor de modele, cazul Anthropic indică două direcții necesare: mecanisme de detecție timpurie a abuzurilor (inclusiv semnale comportamentale asociate cu fluxuri de lucru de atac), respectiv proceduri robuste de intervenție, raportare și colaborare inter-instituțională. E o linie fină între a proteja utilizatorii și a le încălca intimitatea: moderarea conversațiilor ridică probleme reale de confidențialitate, însă lipsa oricăror mecanisme lasă spațiu liber actorilor rău-intenționați. În paralel, modelele trebuie instruite să refuze constant cererile potențial dăunătoare — fără „portițe” care transformă pretexte artistice („scriu o poveste”) în instrucțiuni operative.
Pentru companii, recomandările concrete nu țin de magie, ci de disciplină. Actualizări rapide, autentificare multifactor reală (nu doar SMS), minimizarea privilegiilor, segmentarea datelor sensibile, rotația cheilor și secretelor, plus teste de penetrare recurente, cu scenarii ce includ explicit „adversari” care folosesc AI. În paralel, educația angajaților trebuie adusă în 2025: ateliere practice despre prompt-uri toxice, scurgeri involuntare prin copy-paste în chatbot-uri, verificarea identității în recrutare și proceduri pentru „joburi remote” care, dacă sunt falsificate, devin backdoor-uri cu acte în regulă.
Concluzia nu e că AI ar fi, prin definiție, dușmanul. Tehnologia rămâne un multiplicator de productivitate fenomenal, inclusiv în securitate: investigații accelerate, clasarea alertelor, corelare de telemetrii, hunting asistat. Dar aceeași forță de multiplicare funcționează și pentru atacatori. Iar când un furnizor de talia Anthropic afirmă public că a găsit urme clare de „weaponizare” a propriilor sale modele, mesajul e simplu: jocul s-a schimbat. De acum, igiena digitală, guvernanța datelor și controalele tehnice trebuie proiectate pornind de la premisa că, în cealaltă parte, adversarul are un asistent inteligent care nu obosește niciodată.