spionii-nord-coreeni-au-folosit-chatgpt-pentru-a-crea-o-legitimatie-militara-falsa-in-coreea-de-sud.-cum-a-fost-posibil,-chiar-daca-openai-are-reguli-clare-in-aceasta-privinta

Spionii nord-coreeni au folosit ChatGPT pentru a crea o legitimație militară falsă în Coreea de Sud. Cum a fost posibil, chiar dacă OpenAI are reguli clare în această privință

Timp de citire: 2 minute

Un nou raport de securitate arată că gruparea Kimsuky a exploatat instrumente AI pentru a produce o legitimație militară contrafăcută, folosită într-o campanie de spionaj.

Un raport recent publicat de Genians Security Center (GSC), o instituție sud-coreeană specializată în securitate cibernetică, dezvăluie modul în care hackeri susținuți de statul nord-coreean au folosit ChatGPT pentru a fabrica o legitimație militară falsă, scrie The Register.

Documentul deepfake a fost parte a unei campanii de tip spear-phishing desfășurate în luna iulie, având ca țintă o organizație din domeniul apărării din Coreea de Sud.

Cum a fost creat documentul contrafăcut

Specialiștii GSC au descoperit că metadatele fișierului compromis indicau utilizarea instrumentelor grafice integrate în ChatGPT, în ciuda restricțiilor impuse de OpenAI privind generarea de documente oficiale.

Conform analizei, atacatorii au pornit de la fotografii disponibile public, care au fost integrate într-un șablon ce imita o legitimație de angajat militar sud-coreean.

Pentru a ocoli filtrele de securitate ale platformei, hackerii au apelat la tehnici de „prompt engineering”, formulând cereri care sugerau realizarea unui „mock-up” sau „design de probă” pentru uz legitim, în locul reproducerii directe a unui document guvernamental.

Metoda a permis generarea unei imagini false suficient de convingătoare pentru a fi folosită în atacuri de inginerie socială.

Potrivit experților, acest tip de manipulare arată cât de vulnerabile pot fi modelele generative atunci când sunt exploatate prin formulări intenționat ambigue.

Mai mult decât atât, GSC avertizează că realizarea de documente false cu ajutorul AI este din punct de vedere tehnic relativ simplă, ceea ce amplifică riscurile de securitate.

Trecerea de la phishing clasic la falsuri deepfake

Legitimația falsă a fost distribuită prin e-mailuri care păreau a fi comunicări oficiale despre emiterea de acte pentru funcționari din domeniul militar.

Ținta a fost o instituție de apărare din Coreea de Sud, însă GSC nu a dezvăluit numele organizației și nici numărul exact al victimelor vizate.

Gruparea Kimsuky, cunoscută pentru atacurile asupra instituțiilor militare, guvernamentale și think tank-urilor din Coreea de Sud, pare să își diversifice metodele. Dacă anterior se baza pe documente Word infectate sau campanii clasice de phishing, acum recurge la falsuri vizuale bazate pe AI și tehnici de deepfake.

Descoperirile vin în contextul în care tot mai multe rapoarte semnalează utilizarea inteligenței artificiale de către actori statali pentru operațiuni de spionaj.

În august, compania Anthropic a avertizat că agenți nord-coreeni folosesc AI pentru a crea identități false, a trece interviuri de angajare și chiar a livra cod pentru companii din Fortune 500.

OpenAI nu a oferit încă un răspuns public pe acest caz. Totuși, compania a anunțat la începutul anului că a închis zeci de conturi asociate cu scheme IT operate de Nordul comunist, în cadrul unui efort mai amplu de a combate abuzurile sprijinite de state.