noua-amenintare-in-era-ai:-imaginile-aparent-inofensive-din-mediul-online-ar-putea-prelua-controlul-asupra-computerului-sau-telefonului-tau

Noua amenințare în era AI: Imaginile aparent inofensive din mediul online ar putea prelua controlul asupra computerului sau telefonului tău

Timp de citire: 2 minute

Inteligența artificială evoluează rapid, iar agenții AI, asistenți care nu doar discută, ci și acționează pe computer,devin din ce în ce mai populari.

Dar un nou studiu arată că imagini aparent inofensive, precum fundaluri de desktop sau postări pe rețele de socializare, ar putea fi modificate pentru a trimite comenzi ascunse acestor agenți, punând în pericol datele personale ale utilizatorilor, scrie revista Scientific American.

Cum pot imagini „normale” să devină periculoase

Agenții AI diferă de chatboți prin faptul că pot deschide ferestre, completa formulare sau interacționa cu aplicațiile de pe calculator.

Cercetătorii de la Universitatea Oxford au demonstrat că anumite modificări subtile ale pixelilor într-o imagine pot fi interpretate de agent ca instrucțiuni pentru a realiza acțiuni nedorite.

De exemplu, o fotografie cu o celebritate sau un peisaj poate conține cod ascuns care îi spune agentului să descarce fișiere sau să partajeze parole.

Pentru ochiul uman, imaginea arată normal, dar AI-ul procesează datele vizuale numeric și poate interpreta mesajul ascuns ca o comandă.

Agenții construiți pe modele open-source sunt cei mai vulnerabili, deoarece atacatorii pot analiza exact cum sistemul AI interpretează imaginea și pot introduce cod malițios care să funcționeze în mod fiabil.

Modificările pixelilor sunt atât de subtile încât nu se observă, dar pot face ca agentul să execute comenzi complet nedorite.

Ce poți face concret pentru a te proteja

Studiul arată că atacul prin imagini este încă experimental și nu există cazuri documentate de astfel de compromiteri în viața reală, dar riscul este real și va crește odată cu adoptarea pe scară largă a agenților AI.

Cercetătorii recomandă dezvoltatorilor să implementeze măsuri de securitate care să împiedice agenții să urmeze comenzi din surse vizuale necontrolate. Aceasta poate include antrenarea modelului AI să ignore instrucțiunile ascunse în imagini sau să verifice sursa comenzilor.

În același timp, utilizatorii trebuie să fie precauți în alegerea agenților AI și să evite rularea acestora pe sisteme cu imagini descărcate din surse nesigure.

Studiul atrage atenția că, în timp ce tehnologia agenților AI promite să automatizeze multe sarcini cotidiene, securitatea rămâne un aspect esențial.

Protecția datelor personale și prevenirea infiltrării codului malițios trebuie să fie o prioritate atât pentru dezvoltatori, cât și pentru utilizatori.

De altfel, pe măsură ce agenții AI devin mai răspândiți, atenția la vulnerabilități și adoptarea unor practici sigure vor fi esențiale pentru a evita ca un simplu wallpaper sau o imagine descărcată să devină o breșă de securitate majoră.