Un experiment recent realizat de un grup de cercetători în securitate cibernetică a scos la iveală o vulnerabilitate periculoasă în ecosistemul Google, care poate transforma un simplu eveniment din Calendar într-o armă cibernetică. Folosind o invitație infectată trimisă prin Google Calendar, atacatorii au reușit să transmită instrucțiuni ascunse către Google Gemini, determinând asistentul AI să controleze dispozitive smart dintr-un apartament din Tel Aviv.
Ceea ce face acest caz cu adevărat îngrijorător este faptul că declanșarea atacului nu a fost imediată. Instrucțiunile au fost activate doar atunci când cercetătorii i-au cerut lui Gemini să rezume evenimentele săptămânii. Printre aceste evenimente, AI-ul a „citit” și executat comenzi ascunse, pornind diverse dispozitive inteligente din locuință. Specialiștii consideră că acesta ar putea fi primul caz documentat în care o vulnerabilitate a unui model generativ de inteligență artificială provoacă efecte directe în lumea reală.
Cum funcționează atacurile indirecte de tip prompt injection
Incidentul face parte din proiectul de cercetare „Invitation Is All You Need”, în cadrul căruia au fost efectuate 14 tipuri de teste asupra lui Gemini. Cele trei atacuri reușite asupra casei inteligente au demonstrat cât de ușor pot fi exploatate surse aparent inofensive pentru a transmite instrucțiuni ascunse.
Atacurile de tip prompt injection sunt o formă de exploatare în care instrucțiunile periculoase sunt ascunse în conținut text obișnuit, precum un document, o pagină web sau, în acest caz, un eveniment din calendar. Când AI-ul procesează informația, aceasta este interpretată ca o comandă legitimă și executată. Riscul crește pe măsură ce agenții AI sunt integrați în tot mai multe aplicații și dispozitive, iar detectarea acestor atacuri devine dificilă.
Reacția Google și pașii spre securizarea AI
Google a reacționat rapid la publicarea studiului, declarând că cercetarea a contribuit la accelerarea implementării unor măsuri suplimentare de protecție împotriva prompt injection. Compania consideră că astfel de teste sunt vitale pentru a întări securitatea și a preveni incidente cu potențial periculos.
Deși AI-ul aduce beneficii considerabile în automatizarea sarcinilor, acest incident arată că integrarea lui în dispozitivele conectate la internet vine cu riscuri reale. În contextul în care atacurile pot produce consecințe fizice, securitatea devine o prioritate absolută. Cercetătorii atrag atenția că în viitor va fi nevoie nu doar de protecție software, ci și de limite fizice și procedurale pentru a preveni scenarii similare.