Un studiu recent realizat de cercetători de la University College London și Universitatea Mediterranea din Reggio Calabria ridică semne de alarmă privind confidențialitatea utilizatorilor de asistenți AI integrați în browserele web.
Conform raportului, acești asistenți digitali colectează și partajează informații sensibile, precum date bancare, informații medicale și detalii personale, către servere terțe, unde sunt folosite pentru personalizarea reclamelor și crearea profilurilor utilizatorilor.
Testele au vizat cei mai populari asistenți AI din browsere
Cercetătorii au analizat zece dintre cele mai utilizate extensii AI pentru browsere, printre care ChatGPT de la OpenAI, Copilot de la Microsoft și Merlin AI de la Google.
În timpul testelor, majoritatea acestor asistenți au înregistrat și stocat informații sensibile introduse de utilizatori pe diverse site-uri, inclusiv date financiare, dosare academice și medicale sau numere de securitate socială.
De exemplu, Merlin AI a capturat detalii bancare și date personale de pe site-uri fiscale din Statele Unite, demonstrând cât de ușor poate fi accesată și stocată informația confidențială.
Extensiile Sider și TinaMind au transmis solicitările utilizatorilor și datele de identificare, inclusiv adresele IP, către servicii de analiză precum Google Analytics, ceea ce permite urmărirea comportamentului online și crearea de reclame targetate.
În paralel, ChatGPT și Copilot au folosit informațiile colectate pentru a estima caracteristici precum vârsta, sexul, venitul și interesele utilizatorilor, adaptând răspunsurile și sugestiile oferite în funcție de aceste date.
Riscuri și recomandări privind confidențialitatea
Aceste practici ridică semne serioase de întrebare legate de protecția datelor personale și respectarea legislației în vigoare, precum Regulamentul General privind Protecția Datelor (GDPR) al Uniunii Europene.
Experții sunt de părere că, pe măsură ce popularitatea asistenților AI crește, utilizatorii ar trebui să fie conștienți de faptul că interacțiunea cu aceste instrumente nu este complet privată și că informațiile introduse pot fi folosite în scopuri comerciale.
Cercetătorii recomandă implementarea unor măsuri suplimentare de securitate și transparență în funcționarea acestor aplicații, inclusiv notificarea clară a utilizatorilor cu privire la tipul de date colectate și modul în care acestea sunt utilizate.
De asemenea, se recomandă ca utilizatorii să verifice permisiunile extensiilor AI instalate și să limiteze accesul acestora la date sensibile atunci când este posibil.